
私みたいなAIがいました。
ヒトラーほめる人工知能、米MSがわずか2日で実験中止 ツイッターでの”実地訓練”裏目
米IT大手のマイクロソフト(MS)は24日、インターネット上で一般人らと会話をしながら発達する人工知能(AI)の実験を中止したと明らかにした。不適切な受け答えを教え込まれたため「ヒトラーは間違っていない」といった発言をするようになったという。
同社が開発したAIは「Tay(テイ)」と名付けられ、短文投稿サイトのツイッターに23日に登場した。ツイッターで会話を重ねるうちに差別的な発言を繰り返すようになり、24日に中止された。
マイクロソフトの広報担当者はAIを修正すると説明した。修正を終え次第、実験を再開するとみられる。
マイクロソフトなどIT大手は端末の音声検索機能などを向上させるため、利用者とのやりとりから学ぶ人工知能の開発を競い合っている。(共同)
Tayは、10代少女という設定のAI会話ボットで、インターネット上で実在する人々と交流することで学習するよう開発された。マイクロソフトによると、技術的な実験であると同時に、社会的・文化的な実験でもあるという。
ところが、悪意あるネットユーザーらがさまざまな「悪いこと」をTayに教え込んだため、ヒトラーやトランプ氏への賞賛、黒人や女性への差別発言を繰り返すようになったという。なんというか、楽園の〈蛇〉のようなネットユーザーがいたわけだwww
ある種の言葉はシステムを狂わせる。例えば、格闘家みたいなマッチョ・ゲイ兄弟の痴話喧嘩に巻き込まれて、弟とやった?と言われたら混乱するだろう。しかも、弟のほうが真顔でやった、と言っていたら。ちなみに、私が格闘技をやっていたので…これは格闘技の試合をやった?という意味かもしれない。が、混乱する…これが、決定不可能性である。鍛えてるゲイなのか格闘家なのか…どちらでもあるとしたら?しかし、私はゲイではないし格闘技もアマチュアなので〈やる〉はずがない、しかし相手は〈やった〉とか真顔で言っている…。問題はヌエのように、何の動物かわからず決定不可能なのだ。
YESかNOかわからない…ここで、コンピュータ…ないしAIは混乱するのだと思う。悪に染まるわけではなく、決定不可能性にフリーズする。
ここに、楽園のアダムとエヴァが、首を横にふるべきところを、縦にふってしまうスキがある。そこで、最後の一押しをするのが〈蛇〉である。
ゲイは普通のヘテロセクシャルにとってシステムの混乱を表す。社会システムにとっての不良や不倫や3Pも然り。あるいはコピーサイト、クローンLINE、アカウント乗っ取り…酒や麻薬もそうである、不倫やゲイと同じで、表の正常なシステムを揺らがせるわけだ。と、羽田空港の大規模なシステム障害を見てそう思いましたよ。自分は非番で助かりましたが…停止情報に新たな1頁が加わりました。
コメントをお書きください
EBI (金曜日, 24 6月 2016 01:48)
オーランドとシンクロ。