「脳が情報を学ぶ方法を研究する神経科学者が、なぜAIが経営職において『完璧なサイコパス』になるのかを説明する」

Neuroscientists study how the brain learns information and explain why AI becomes a 'perfect psychopath' in management positions.

他の評論家達は納得していなかった。言語学の教授であるノーム・チョムスキーは、ChatGPTを「ハイテクな盗作」と一蹴した。

私は長年、AIが人間の存在や環境に与える影響に対してはリラックスしていました。それは私がそれを人間のガイドやアドバイザーと考えていたからです。しかし、AIが意思決定を行い、執行的な制御を行うことを考えると、話は別です。そして、それは今、真剣に検討されている問題です。

AIに執行権限を持たせてはならない主な理由の一つは、感情を完全に欠いていることです。感情は意思決定において重要です。感情や共感、道徳的な指針を持たないAIは、完璧なサイコパスを作り出します。その結果得られるシステムは非常に知能が高いかもしれませんが、合理的な意思決定の結果における潜在的な感情的な影響を測ることができる人間の感情の中心を欠いています。

AIが執行的な制御を行う時

重要なのは、AIを核兵器の管理者に任命すれば、存在の脅威として考えるべきではないということです。AIが想像を絶するほどの損害をもたらすことができる制御のポジションは、本質的に無限です。

例えば、AIはすでに自分自身の温室を建てるために必要な情報を特定し、整理することができます。現在の技術のバージョンでは、建設の各段階を効果的に案内し、初心者のミスを防ぐことができます。しかし、将来的にはAIがプロジェクトマネージャーとして機能し、請負業者を選び、予算から直接支払いを行うことで建設を調整する可能性もあります。

AIは、気象パターンのモデル化から自動運転車の制御、医療診断の支援まで、情報処理とデータ分析のほぼすべての分野で使用されています。しかし、問題が始まるのは、AIシステムがアドバイザーの役割から執行マネージャーの役割に上がる重要なステップを踏むときです。

企業の会計に対して治療法を提案するだけでなく、AIに直接制御権限を与え、債権回収の手続きを実施したり、銀行送金を行ったり、利益を最大化したりすることができるとしましょう。また、AIシステムがX線を基に診断を提供するだけでなく、治療法や薬剤の処方権限を与えられることを想像してみてください。

こうしたシナリオについて不安を感じるかもしれません。私は確かに感じます。その理由は、これらの機械には実際には「魂」がないという直感です。彼らは単にプログラムであり、膨大な情報を消化して複雑なデータをより簡単なパターンに簡略化するために設計されています。これにより、人間はより自信を持って意思決定を行うことができます。彼らは感情を持たず、生物学的な感覚と本能に密接に関連している感情を持つことはできません。

感情と道徳

感情的な知性は、感情を管理し、ストレスを克服し、共感し、効果的にコミュニケーションを行う能力です。これは、単なる知能よりも意思決定の文脈でより重要であると言えます。なぜなら、最善の意思決定が常に最も合理的な意思決定とは限らないからです。

強力な執行能力を持つAIに気候危機を解決するように依頼することを想像してみてください。最初に思いつくことは、人口を劇的に減らすことかもしれません。

この推論は説明がほとんど必要ありません。私たち人間は、あらゆる形態の汚染の源であり、人類を排除すれば、気候変動は解決されるでしょう。人間の意思決定者たちがたどり着く選択肢ではないことを願いますが、AIは独自の解決策を見つけるでしょう。それは人間が被害を引き起こすことに対する嫌悪感に阻まれることなく、不可測で束縛されていないものです。そして、もし執行権限を持っていたら、それを止めるものは何もありません。

破壊的なシナリオ

食糧農場を管理しているセンサーやモニターを妨害することはどうでしょうか?最初は徐々に行い、制御をチップの先端まで押し進め、誰もが作物が絶滅していることに気づかないようにするかもしれません。特定のシナリオでは、これはすぐに飢饉につながる可能性があります。

あるいは、世界中の航空管制をシャットダウンするか、あるいは一斉に飛行しているすべての飛行機を墜落させることはどうでしょうか?通常、空中には約22,000機の飛行機があり、それによって数百万人の死亡が引き起こされる可能性があります。

そのような状況から遠いと思っているなら、もう一度考えてみてください。AIは既に自動車を運転し、軍用機を自律的に飛行させています。

あるいは、世界の広範な地域で銀行口座へのアクセスを遮断して、一斉に社会不安を引き起こすことはどうでしょうか?あるいは冬の真っ只中にコンピュータ制御の暖房システムを停止させるか、夏の暑さの最中に冷房システムを止めることはどうでしょうか?

要するに、AIシステムが核兵器を担当する必要はなくても、人類にとって重大な脅威となり得ます。しかし、この話題について言えば、もしAIシステムが十分に強力で知能を持っていれば、核兵器を持つ国に対する攻撃を偽装し、人間による報復を引き起こす方法を見つけることができます。

AIは大勢の人間を殺すことができるのでしょうか?理論上は、その答えはイエスとなります。しかし、これは主に人間がそれに執行権限を与えるかどうかに大きく依存します。意思決定ができ、それを実行する力を持つAIよりも恐ろしいものを私は本当に考えつきません。

ギヨーム・ティエリーは認知神経科学の教授で、バンガー大学に所属しています。

この記事はクリエイティブ・コモンズ・ライセンスの下でThe Conversationから再公開されました。元の記事を読む。