2016年3月25日金曜日

Tayの停止で改めて「教育」の大事さを考えた。

Techcrnchで「MicrosoftがAIチャットボット、Tayを停止―人種差別ジョークで機械学習の問題点が明らかに」という記事がエントリーされていた。

Microsoftは昨日(米国時間3/23)、ユーザーのメッセージに返事をする人工知能ボット、Tayをリリースした。Twitterに加えてチャット・サービスのGroupMeとKikが対象だ。しかしMicrosoftはこのTayをスタート早々停止してしまった。問題はこの人工知能が侮辱的ないし人種差別主義的メッセージをそれと認識できないところにあった。

ということで、まあMicrosoftの技術者の方はお気の毒であるのだが、ある意味面白がって絡んできそうである、Twitterで実権してみようと思うのが無茶であったことの実証でも有る。

AIであるから知能や学習機能は高いといっても、ある意味赤ん坊状態であるのだから、世間の悪い風にさらされたら染まってしまうのも当然でしょ、と何やら昭和世代の青春ストーリーを復習しているような思いでもある。

なにより今回の事例で心せねばならないのは、AIであるからといって潜在的に善悪をわきまえているわけではなくて後天的にそれを知るのだ、ということで、古来からの「タブラ・ラーサ」の概念の正当性を思う次第でもある。

なんにせよ、これからあらゆる場所や機械に導入されて、私達の暮らしの多くの部分のイニシアティブをとるであろうAIであろうから、「教育」はしっかりしてほしいですね、と願うばかりである

0 件のコメント:

コメントを投稿