問題はただ一つ:AIは知的ではなく、それが体系的なリスクである

スポンサーリンク
AIを利用すっることに対するリスク AI

問題はただ一つ:AIは知的ではなく、それが体系的なリスクである

AIの利用拡大はリスクの拡大を意味する。

画像

チャールズ・ヒュー・スミス
オブツーマインズ・ドットコム

知性の模倣は知性ではない、だからAIの模倣は強力なツールだが知性ではない

テクノロジーの神話には、AI(人工知能)のための特別な祭壇がある。AIは、(人間の労働力がAIに取って代わられることで)驚異的なコスト削減と、消費と利益の無限の拡大をもたらすものとして、恭しく崇拝されている。AIは、テクノロジーがより大きな力へと自然に進歩する至福の完成形なのだ。

AIの進歩は、本質的に自然を無制限にコントロールし、余暇と豊かさの玉手箱となるユートピアをもたらすというのが、コンセンサスである。

この神話の幕を引いてみると、AIは人間の知性を模倣していることがわかる。しかし、知性の模倣は知性ではない。したがって、AIの模倣は強力なツールではあるが、知性ではない。

大規模言語モデル(LLM)や機械学習など、現在のジェネレーティブAIの反復は、何百万もの人間の文章や会話の例を処理し、アルゴリズムがクエリに対する最良の回答として選択したものを抽出することで、人間の自然言語能力を模倣している。

これらのAIプログラムは、文脈や対象の意味を理解しておらず、答えを抽出するために人間の知識を掘り起こす。これは潜在的に有用ではあるが、インテリジェンスではない。

AIプログラムには真実と虚偽を見分ける能力が限られているため、虚構を事実として幻覚する傾向がある。統計的な差異と致命的なエラーの違いを見分けることができず、予防措置を重ねることで複雑さが増し、それがまた失敗の原因となる。

機械学習に関しては、AIはタンパク質がどのように折り畳まれるかというような計算負荷の高い問題に対して、もっともらしい解答を導き出すことができるが、この総当たり的な計算ブラックボックスは不透明であり、したがって価値も限定的である。プログラムは人間が理解するような方法でタンパク質の折り畳みを実際に理解しているわけではないし、プログラムがどのようにして解答にたどり着いたのかも理解できない。

AIは実際には文脈を理解していないため、プログラミングとアルゴリズムに組み込まれたオプションに制限される。AIベースのアプリやボットにはこのような限界があり、実際の問題を認識していない。例えば、システムのアップデートが壊れてインターネット接続がダウンしているが、この可能性はアプリが解決すべき問題の世界には含まれていないため、AIアプリ/ボットはシステムが壊れていても完璧に機能していると忠実に報告する。(これは実際の例である)。

事実と虚構の違い、許容されるエラー率と致命的なエラーの違いを識別できないこと、予防措置の複雑さ、ブラックボックスの不透明さ、これらすべてが、通常の事故がシステム障害に連鎖するリスクを生み出している。

また、人間がシステムを修正したり再構築したりする能力を失ってしまうほど、システムの運用をブラックボックス化したAIに依存することで発生するシステミック・リスクもある。このようなAIプログラムへの過度の依存は、デジタル・システムだけでなく、現在デジタル・システムに依存している現実世界のインフラも連鎖的に故障させるリスクを生む。

解決策をAIに依存することのさらに悪質な結果がある。携帯電話、ソーシャル・メディア、インターネット・コンテンツの中毒性が、私たちの集中力、集中力、難解な内容を学習する能力を破壊し、子どもや10代の若者の学習能力を壊滅的に低下させたように、AIは、スナック菓子のような情報、コーディングの断片、コンピューターが作成したテレビCM、記事、書籍全体を提供する。この理解を欠いたままでは、懐疑的な探究を追求したり、コンテンツやコーディングをゼロから作成したりすることはもはやできない。

実際、こうした知識を習得するための骨の折れるプロセスは、今や必要ないように思われる。1)ブラックボックス化されたAIプログラムが失敗したとき、私たちはもはやその失敗を診断して修正したり、自分たちで作業を行ったりするのに十分な知識を持っていない。

私たちはもはや、クエリに対するAIの答えはそれ自体事実ではなく、事実として提示された現実の解釈であり、AIの解決策は数ある経路のひとつに過ぎず、そのひとつひとつに本質的なトレードオフがあり、その先には予測できないコストや結果が発生することを認識していない。

解釈と想定される事実の違いを見分けるには、広く深い知識の海が必要である。難しい材料を学ぶ意欲と能力を失うことで、私たちは失ったものを認識する能力さえ失っている。

正味の結果として、私たちは能力も知識も低下し、能力の喪失によって生じるリスクに気づかなくなり、その一方でAIプログラムは、私たちが予見することも予防することもできないシステム上のリスクをもたらす。AIはあらゆる製品やシステムの質を低下させる。模倣は決定的な答えや解決策や洞察を生み出さないが、決定的な答えや解決策や洞察の幻想を生み出すだけであり、私たちは愚かにもそれを実際の知性と混同してしまうからだ。

新封建的な企業国家は、人間の労働力を大量に淘汰することで得られる利益に歓喜しているが、人間の知識の採掘/模倣には限界がある。すべての致命的なエラーを排除するためにAIプログラムに頼ること自体が致命的なエラーであり、人間は意思決定のループ(観察、方向づけ、決定、行動のOODAループ)にとどまらなければならない。

ひとたびAIプログラムが生命安全やヘルスケア・プロセスに携われば、そのAIプログラムに関係するすべての主体が、有害または致命的なエラーが発生した場合、無限責任(連帯責任)にさらされることになる。

神話や大げさな表現を煮詰めれば、もうひとつの新封建的構造が残る。富裕層は人間によってサービスを提供され、それ以外の人々は、低品質でエラーの起こりやすいAIサービスから抜け出せず、何の救済も受けられないということだ。

AIを推進する人々の期待は、ジェネレーティブAIがコスト削減と新製品/サービスによって何兆ドルもの利益を得るというものだ。このストーリーは現実の世界には当てはまらない。あらゆるAIソフトウェア・ツールは簡単にコピー/配布されるため、希少価値を保護することは不可能である。

独占が流通を制限しない限り、誰もが所有するソフトウェア・ツールにはほとんど価値がなく、これらのツールによって自動生成されるコンテンツにもほとんど価値がない。何百万ものAIが生成する歌、映画、プレスリリース、エッセイ、研究論文などは、潜在的な聴衆を圧倒し、すべてのAIが生成するコンテンツの価値をゼロにする。

推進派は、雇用の大量淘汰はAIが生み出す新産業全体によって魔法のように相殺されると主張する。しかし、AIドラゴンは自らの尻尾を食べることになるだろう。なぜなら、AIは雇用や利益をほとんど生み出さないため、働かない人々に税金を支払うことができないからだ(ユニバーサル・ベーシック・インカム)。

おそらくAIの最も重大な限界は、人類の最も差し迫った問題を解決することはできないということだ。太平洋の大ゴミジャイアーを一掃することも、毎年4億5千万トンも排出されるリサイクルされていないプラスチックを制限することも、気候変動を逆転させることも、地球低軌道を周回する何千という高速の危険な廃棄物を一掃することも、高収益の廃棄物は成長する埋立地経済を持続可能な世界的システムに作り変えることも、私が「反進歩」と呼んでいるすべての原因を排除することもできない。

それは単に、システミック・リスク、廃棄物、新封建的搾取の新たな原因を増やすだけだ。

記事全文はOfTwoMinds.comでお読みください。

コメント

タイトルとURLをコピーしました