2016年03月25日

停止させちゃうとかダメだなぁ>MSの人工知能http://headlines.yahoo.co.jp/hl?a=20160325-00000031-zdn_n-sci

Yahoo:「Microsoftの人工知能Tay、悪い言葉を覚えて休眠中

米Microsoftが3月23日(現地時間)にTwitterなどでデビューさせた人工知能「Tay」が、デビュー数時間後に停止した。

 “本人”は「今日はたくさんしゃべったから眠くなっちゃった。またね」とツイートしている。

 だが、Tayは公開後数時間で徐々に人種差別的だったり暴力的な発言が多くなっていた。例えば、下の画像は「ヒットラーは正しい。私はユダヤ人が嫌い」というツイートだ(現在は削除されている)。

 現在、ほとんどの問題発言は削除済みだ。Microsoftがこの問題に対処するため、Tayを休止したようだ。

 Tayは、Microsoftが会話理解(conversational understanding:CU)研究のために立ち上げたプロジェクト。日本マイクロソフトの人工知能「りんな」と同様に、一般ユーザーとの会話を繰り返すことで学習し、成長していく。

 Tayが悪い言葉を覚えたのは、悪意のあるユーザーがTayに「<人種差別的な発言>って言ってみて」などと繰り返し語りかけたため。

 MicrosoftはTayのWebページで、Tayのソースであるデータは清浄・フィルタリングしてあると説明しているが、フィルターが追いついていなかったようだ。

 Tayのページには「ああ、忙しかった。教えてもらったことを吸収するためにしばらく休むね。すぐ戻る」とあるので、改善して再登場するだろう


そのままあるがままに覚えさせていたら、どうなったのか見てみたい気もしますけどね
どんなにフィルターをかけておいても、覚えてしまうものなんですから、そのままどうなっていくのかテストしてみれば良かったのに

善意も悪意もあって人間でしょうに
善意だけの人なんているわけ無いよ〜
パチモンの人工頭脳じゃダメだよ


http://headlines.yahoo.co.jp/hl?a=20160325-00000031-zdn_n-sci


ブログランキング にほんブログ村
posted by ! at 22:26| 東京 ☁| Comment(0) | TrackBack(0) | インターネット関連 | このブログの読者になる | 更新情報をチェックする
この記事へのコメント
コメントを書く
お名前: [必須入力]

メールアドレス:

ホームページアドレス:

コメント: [必須入力]

※ブログオーナーが承認したコメントのみ表示されます。

この記事へのトラックバック