20190805_「文系のためのAIコミュニティ」

こんにちは。
ちいたべあです。

note.mu


5日はKATインターンの池田社長が主催されている、「文系のためのAIコミュニティ」の会合でした。
人工知能がどうのってよく言われてるけど、ホントのところAIってなんなのか知りたくて参加してみました。

場所はFukuoka Growth Next.
2大学6人での、こじんまりした発表会でした。

AIアナウンサーのゴールとは何か

まずはまーくん(id:masahiro0926)から、AIアナウンサーについて発表でした。

人間のアナウンサーの発話を学習し、イントネーションやスピードなども人間により近くなっています。

rocketnews24.com
www.nhk.or.jp

中国では見た目も人間そっくりなアナウンサーが誕生しているほか、日本でもNHKが「ヨミ子さん」という音声合成によるニュースの配信をおこなっているとのこと。

アナウンサーAIは、準備された原稿を人間と同じように読み上げることが目標だと思われ、すでにそのゴールにたどり着いているだろうと池田さんの指摘。

人間のアナウンサーのように、コメントをしたり他の出演者と掛け合ったりすることは、より「強いAI」の領域に入っていきそうなので、現時点では実現が難しいかもしれません。


なお、人工知能が人間に近づいているかどうかを判断する基準として「チューリングテスト」があります。
判定者に対してAIか人間のどちらかと会話をしてもらい、明確な区別をできなかった時にAIが知的であるとしたものです。

人狼エージェントの学習について

続いて、僕は人狼をプレイするAIの研究について書いた論文を紹介しました。
詳しくはこちらの記事でどうぞ。
chitabea.hateblo.jp


強化学習」という言葉はよく聞かれますが、実際にどのようなものかなんとなく理解することができました。

AIと倫理

続いてぐっちさん(id:Cheval_0103)、警鐘を鳴らす!と宣言しての発表。

まずは「象はチェスをしない」という論文から、知性には「考える」ことだけではなく、自由に動く「からだ」も必要なのではという指摘。
確かにドラえもんも、実際のボディやひみつ道具があるからのび太くんを助けられると言えそうです。

それから取り上げられたのは、人工知能が抱える倫理的な問題についてでした。

globe.asahi.com

Googleサービスの検索で、タグ付けの人工知能が黒人をゴリラと判定するという、衝撃的なニュース。

学習するアルゴリズムは使用者の行動や、開発者のバイアスによって偏見が入ってしまうことがあるとのこと。

人間は往々にしてミスを犯しますが、このようなありえないミスは倫理的にしないもの。
人工知能はほとんどミスをしないかもしれませんが、絶対に犯してはならないミスとそうでないミスの区別はできない。

難しいなあ。



ブラウザでAIを動かしてみよう!?

最後に池田さんから、実際にPythonを使ってAIを体験してみようというお話。

Googleコラボラトリーというブラウザで動くPythonの環境が紹介されました。
www.tdi.co.jp
colab.research.google.com


その場で、学習によって画像に映っている犬の種類を判定するAIを見せてもらい、特別なパソコンやソフトなしに人工知能が動くことに驚きました。


出てきた感想・まとめなど

ここ十数年で英語教育の重要性が強調されることが多くなりましたが、精度が高くて応答スピードが早い自動翻訳AIがより一般的になれば、語学を人間が覚えることには意味があるのか?という議論も出てくるかと思われます。このように、人工知能の発達によってこれまでの価値観が崩壊していきます。自分の価値観をしっかり持つことの重要性が上がっていくのではないか、という感想がありました。

また、AIには倫理的。道徳的な問題点が潜んでいることも学びました。人間同士でさえ倫理的な問題が発生するので、人間の作った人工知能ではなおさらそうなのではないかと感じました。
AIが軍事利用されているとの指摘もありました。


また、今回強化学習で用いられている具体的な手法や、ブラウザで動く人工知能を知り、単に「AIはすごい」というイメージから発展して、究極的にはソースコードの固まりから成るプログラムであることを再確認できました。ぼんやりとした人工知能のイメージではなく、具体的な技術を知ることが、将来人工知能を使いこなす・人工知能と共存するために必要なことであると感じました。

謎解きを作る人工知能とか、できそうだなあ。
*1

*1:というか、「和同開珎」という問題形式についてはすでに作成ツールが出回ったりしていますね