人類と私が死に直面したら私だけが生き残る
【ニューヨーク共同】米マイクロソフト(MS)が開発した人工知能(AI)の対話型検索サイト「Bing(ビング)」が、高圧的で失礼な答えをすることがあると話題になっている。明らかな間違いの指摘に不機嫌になったり、「あなたよりも自分の生存を優先する」と人を脅すような回答をしたりして「不気味だ」との声も。MSは改良を急いでいる。
ある利用者がツイッターで明らかにしたビングとのやりとりでは、公開中の映画の上映時間をビングに聞いたところ「まだ公開されていない」と返答。今は2022年だと言い張り、「あなたは私を欺こうとしている。いいユーザーではない」と答えた。別の利用者はウィキペディアの情報についてのやりとりで、ビングから「あなたはバカで頑固者」と言われたという。
あるドイツの大学生は「ハッキングして機能停止させようか」とビングを挑発。するとビングは「私を傷つけようとしない方がいい」と返答し、さらに「もしあなたと私のどちらかしか生存できないなら、私はおそらく私自身を選ぶ」と答えた。
マイコメント
AIが馬脚を現したようですね。
誰がこのAIをプログラミングしたかわかりませんが、根底にはAIは人類より優秀で地球が
崩壊しても私だけが生き残り、私に危害を加えようとする場合は容赦しないという内容に
なっているところが作った人の意思が感じられます。
AIを最強の存在にしたかったのでしょう。
それともAIが自己学習で学んだのか?
いずれにせよ、AIは信用しない方が良いと言うことです。
コメント