2024年5月6日
https://vaccineimpact.com/2024/the-new-ai-teaches-humanity-how-to-be-better-liars-and-will-never-replace-humans/
ブライアン・シルハヴィー
ヘルスインパクトニュース編集部
2022年11月、OpenAIが開発したマイクロソフトのChatGPTがリリースされ、最初のLarge Language Model(LLM)AIアプリが一般に紹介されてから1年半が経過した。
グーグル、イーロン・マスク、その他多くの企業も、これらのAIプログラムの独自バージョンを開発、あるいは開発中である。しかし、1年半が経過した現在でも、これらのLLM AIプログラムの1番の問題は、答えるのが難しすぎる質問をされると、嘘をついたり、でっち上げをしたりするという事実である。
マイクロソフトが2022年にこのクラスのAIの最初のバージョンを発表したときには、すぐに正確な結果を出してくれるだろうと大きな期待が寄せられたが、彼らが “幻覚 “を見続けているため、その正確さは依然として見えてこない。
以下は、本日2024年5月6日に発表されたばかりのレポートである:
多くの人が、LLM AIにおけるこの限界を理解し始めており、この問題に対する真の解決策がないことに気づきつつある。なぜなら、これは人工的なコンピューターベースの “知性 “に固有の限界だからである。
“artificial “という言葉の対義語は、”fake”、つまり “not real “である。このようなコンピューター言語をAIと呼ぶのではなく、FI(Fake Intelligence)と呼んだ方が正確かもしれない。
Tech Crunchに寄稿しているKyle Wiggersは、数日前、LLM AIの幻覚を治そうとする最近の試みの失敗について報告している。
同じくTech Crunchに寄稿しているDevin Coldeweyは先月、AIのLLMに内在する幻覚という大きな問題について述べた素晴らしい記事を発表した:
-
これらのモデルは、膨大なテキストデータセットの単語や文章などの関係を観察させ、何百万、何千万という単語や概念がどのように関連し、相関しているのか、独自の内部統計マップを構築することによって作られる。これは名詞で、これは動詞で、これはレシピで、これは修辞法で、とは誰も言っていない。
-
グーグルやアップルのような企業が過去10年間AIと呼んできた馴染みのあるソフトウェアとは対照的に、これらのモデルは質問への答え方を特別に教えられているわけではない。これらは基本的に、空欄がAPIにつながるマッド・リブスである:すべての質問は、説明されているか、一般的な応答を生成します。大規模な言語モデルでは、質問は他の質問と同じような単語の羅列に過ぎない。
-
これらのモデルには、その回答に対する「確信」という基本的な表現力がある。猫認識AIの簡単な例では、0から100まであり、それは猫ではないと完全に確信していることを意味する。信頼度が85であれば「はい、猫です」と答え、90であれば「猫です」と答える。
「AI」は2023年の新しい流行語で、コンピューター・コードに関連するあらゆるものが「AI」と呼ばれ、投資家たちは文字通りこの「新しい」テクノロジーに数十億ドルを投じていた。
しかし、実際に検証してみると、AIはまったく新しいものではない。
アップルの女性音声「Siri」やアマゾン・ドット・コムの女性音声「アレクサ」は、話し言葉に反応して返事を返してくれる。これは「AI」であり、10年以上前から存在している。
新しいLLMアプリケーションのような「生成的AI」で「新しい」のは、応答を計算するパワーとエネルギーが大幅に拡張され、コンピュータがテキストを素早く生成しながら、あたかもあなたと会話しているかのように見えることだ。
しかし、これらのLLMは実際には新しい何かを生み出すわけではない。SiriやAlexaのようなプログラムを動かしている古いテクノロジーが、まだ大人のような話し方を学んでいない赤ちゃんに思えるほどのスピードで、そのデータを素早く計算することができるのだ。
しかし、学習させるデータの量と精度にはまだ限界がある。データを操作することで新しい言語構造を「作り出す」ことはできるかもしれないが、データそのものを作り出すことはできないのだ。
別の見方をすれば、現実の世界でそれが行っていることは、核となるデータを正確に表現しないことで、人間をより優れた嘘つきにしているということになる。
最近、グーグルの新しい携帯電話のコマーシャルを見ていて、この嘘をつく能力の強化に本当に驚かされた:
ここでグーグルは、写真のように “AI “を使って人々を欺き、グーグル携帯が撮影した実際のデータについて嘘をつく方法を明らかに教えている。
ウソをついたり人をだましたりすることは売れるが、真実は売れないことが多い。グーグルの最新携帯電話のこのようなコマーシャルを一般の人々が見ると、ほとんどの人は、これは本当に素晴らしいことだと反応するだろう。
今日のビッグテックの世界では、”データ “は新しい通貨であり、”データ主義 “は新しい宗教である。
もし、私が昨年発表したゼカリア・リンチの記事をまだお読みでないなら、この記事を読んで、テクノクラートたちがどこに行こうとしているのか、少なくともどこに行こうとしているのかを鋭く観察してほしい:
「データ主義」はAIとトランスヒューマニズムの新宗教である:データを所有し支配する者が人生を支配する
最近の記事で述べたように、これらのLLMモデルを訓練している人々は、”データが不足している “という理由でパニックを起こし始めている。
このことは、新しいLLM AIモデルのもうひとつの重大な欠陥を浮かび上がらせる。既存のデータから生成されるものはすべて、誰かが作成し、インターネット上にカタログ化されたデータなのだ。つまり、このAIによって生成されるものは、それが正確であろうとなかろうと、盗用であるということだ!
このテクノロジーは急速に進歩しているため、法的な意味合いについてはまだ十分に議論されていないが、私は昨年初めに、テキストやグラフィックを生成するためにAIを使わないと決めた。
何十年もそうしてきたように、今日も記事を書くときは、自分の記事で使用するすべてのものの原典を引用し、信用に値するところには信用を与えるよう最善を尽くしている。
LLMのAIは一般的にこれをしない。AIには魂がなく、善悪の概念もない。それは単にスクリプトに従うだけであり、アルゴリズムと呼ばれる人間によってプログラムされたコンピューターのスクリプトに従うだけなのだ。
現在、コンピュータにデータを入力できる方法は限られており、文字、マイクによる音声、カメラによる画像や動画などである。
この3つの方法だけでなく、嗅覚や味覚など、まだデジタルデータに変換できない感覚も含めてデータを入力できる人間に、コンピューターやAIプログラムが取って代わることはないだろう。
しかし、人間が持つ最大のデータ収集能力は、非物理的、つまり「メタ物理的」なものである。
何百年にもわたるダーウィンの生物学的進化論は、ほとんどの西洋人に脳が意識の中心であることを教えてきたが、古代人は何千年もの間、常に心臓が意識の中心であると信じてきた。
これは、聖書やその他の古代文献の見解である。見てみよう:
脳の神話:知性と思考は脳ではなく心に由来する
そして「現代科学」には、この信念を否定するものは何もない。
昨年このトピックで書いたように、どちらかといえば、私たちの人生における心の中心的な位置を確認する科学的証拠がある。
その証拠とは、心臓移植を受けた人が、心臓を提供した人が生前に経験したことを思い出したり、考えたりするという話である。
他人の脳の移植を受けた人はいない。
『Medical Hypotheses』誌に掲載された2020年の研究では、実際にこの問題に取り組んでいる。
こちらも参照のこと:
臓器移植レシピエントにおける記憶の転移
ドナーの特徴を受け継いだ10人の臓器レシピエント
抜粋
ABCニュースが8年前に公開した、脳がほとんどない状態で生まれた赤ちゃんについて、そして脳がない状態では生きる見込みがないため、医師がどのように両親に中絶を告げたかについてのビデオである。
しかし、両親は医師の忠告を聞かず、赤ん坊のジャクソンは脳なしで6年近く生きた。医師や医学に逆らって彼がそうすることができたのは、彼の意識が脳ではなく、元気だった心臓にあったからである。
電気で動くAIやコンピューターは、心臓から送り出される血液で動く人間に取って代わることはない。
AIについてもっと読む
「人工知能」の75年にわたる失敗の歴史と、現実世界のためにSFに投資して失われた数十億ドル
コンピューターが利用できない 「データ」
コメント