テックの専門家たちは、ChatGPTとA.I.の「幻覚」がいつか消えるかどうか疑問を抱き始めています「これは修正できない」という意見もあります
Tech experts are starting to question whether the 'illusion' of ChatGPT and A.I. will disappear someday, with some saying, 'This may be irreversible.
幻覚、妄想、あるいはただ物事をでっち上げると表現されるこの問題は、今やあらゆるビジネス、組織、そして高校生が生成型AIシステムを使って文書を作成し、仕事を進める際に直面する問題となっています。心理療法からリサーチや法的な要約文書の執筆まで、高いリスクを伴うタスクにも使用されています。
「私たちが今日利用しているモデルで、何も幻覚を抱えていないものはないと思います」と、Anthropicの共同創業者で社長のダニエラ・アモデイは述べています。
「それらは本当に次の単語を予測するために設計されているわけです」とアモデイは言います。「そのため、モデルがそれを正確に行う割合があるでしょう。」
Anthropic、ChatGPTの製作者であるOpenAI、および他の主要な大規模言語モデルの開発者は、より真実味のあるものにするために取り組んでいると述べています。
- 「苦戦するタッパーウェアとイエローが急騰によりミーム株クラブに参加」
- メタとGoogleは、生成型AIをあなたの生活から逃れられない一部にする計...
- 「2023年8月に子供のための貯蓄口座を開設するための3つの最高の銀行」
それがどれだけの時間を要するか、そして例えば安全に医療アドバイスを提供するには十分なレベルになるのかは、まだわかりません。
「これは修復できるものではありません」と、ワシントン大学の計算言語学研究所の言語学教授であるエミリー・ベンダーは述べています。「これは技術と提案されたユースケースとの不一致に固有のものです。」
生成型AI技術の信頼性には多くの重要性があります。マッキンゼー・グローバル・インスティテュートは、これによって世界経済に2.6兆ドルから4.4兆ドル相当が追加されると予測しています。チャットボットはその熱狂の一部に過ぎず、新しい画像、ビデオ、音楽、コンピュータコードを生成できる技術も含まれています。ほとんどのツールには何らかの言語コンポーネントが含まれています。
Googleは既にニュース記事を自動生成するAI製品をニュース機関に提供しており、正確さは最重要です。Associated PressもOpenAIとのパートナーシップの一環としてこの技術の使用を検討しており、OpenAIはAPのテキストアーカイブの一部を使用してAIシステムを向上させるために支払いを行っています。
インドのホテル経営学院と提携しているコンピュータサイエンティストのガネシュ・バグラーは、数年間にわたりAIシステム(ChatGPTの前身を含む)を使用して、南アジア料理のレシピを考案しようと取り組んできました。例えば米をベースとしたビリヤニの新しいバージョンなどです。ひとつの「幻覚」成分がおいしいか食べられないかの違いとなる可能性があります。
OpenAIのCEOであるサム・オルトマンが6月にインドを訪れた際、インドラプラスタ情報技術研究所の教授はいくつかの具体的な質問をしました。
「ChatGPTの幻覚はまだ許容できると思いますが、レシピが幻覚を起こすようになると、深刻な問題になります」とバグラーは述べ、アルトマンに向けてニューデリーのキャンパスの満席の講堂で立ち上がりました。
「あなたの意見は何ですか?」とバグラーは最終的に尋ねました。
アルトマンは楽観的な意見を示しましたが、断固とした約束ではありません。
「私たちは幻覚の問題をはるかに改善すると思います。1年半から2年ぐらいかかると思います。そこには創造性と完全な正確さのバランスがあり、モデルはどちらが必要かを学ぶ必要があります」とアルトマンは述べました。
しかし、ワシントン大学の言語学者ベンダーなど、この技術を研究してきたいくつかの専門家にとっては、これらの改善は十分ではありません。
ベンダーは、言語モデルを「与えられたある書かれたデータに基づいて、異なる文字列の単語形の可能性をモデリングするシステム」と表現しています。
それがスペルチェッカーが間違った単語を検出できる理由です。また、自動翻訳や転写サービスの動力源となっており、「出力を対象言語の典型的なテキストに見せかけるために出力を滑らかにする」とベンダーは述べています。多くの人々は、テキストメッセージやメールを作成する際に「オートコンプリート」機能を使用する際に、この技術のバージョンに頼っています。
ChatGPT、Claude 2、またはGoogleのBardなどの最新のチャットボットは、テキストの生成に使用される際、「物事をでっち上げるために設計されています。それだけです」とベンダーは述べています。これらのモデルは、法的契約書、テレビの台本、またはソネットなどの形式の文章を模倣するのには優れています。
「しかし、彼らは常に事実をでっち上げるだけなので、押し出されたテキストが私たちが正しいと考えるものと解釈できる場合は偶然です」とベンダーは述べました。「たとえより正確になるように調整できたとしても、まだ失敗のモードがあります。そしておそらく、失敗はテキストを読んで気づくのが難しい場合に起こるでしょう、それはより曖昧なものです。」
マーケティング企業にとって、ジャスパーAIの助けを借りてピッチを書くことは大きな問題ではありません、と同社の社長であるシェーン・オーリックは述べています。
「幻覚は実際には追加のボーナスです」とオーリックは言いました。「私たちの顧客からはいつも、ジャスパーがどのようにアイデアを生み出したのか、彼ら自身では思いつかなかったストーリーやアングルを作り出したという話を聞きます。」
このテキサス州のスタートアップは、OpenAI、Anthropic、Google、またはFacebookの親会社であるMetaなどのパートナーと協力し、顧客のニーズに合わせたさまざまなAI言語モデルを提供しています。正確性に関心がある人にはAnthropicのモデルを提供し、独自のソースデータのセキュリティに関心がある人には別のモデルを提供することができるとオーリックは述べています。
オーリックは、幻覚は簡単に修正されるものではないと知っています。彼は、検索エンジンの「事実に関する非常に高い基準」を持っているであろうGoogleなどの企業が、解決策に多くのエネルギーとリソースを費やすことを期待しています。
「彼らはこの問題を解決しなければならないと思います」とオーリックは言いました。「彼らはこれに取り組まなければなりません。だから、完璧になるかどうかはわかりませんが、時間の経過とともにますます良くなるでしょう。」
マイクロソフトの共同創設者であるビル・ゲイツを含むテクノ楽観主義者は、明るい見通しを予測してきました。
「時間の経過とともに、AIモデルは事実とフィクションを区別することができるようになると楽観的です」とゲイツは、AIの社会的リスクに関する彼の考えを詳細に説明した2022年のブログ記事で述べています。
彼は「この分野での有望な取り組み」としてOpenAIの2022年の論文を引用しました。
しかし、複数の用途に対して製品をマーケティングしているオルトマンでさえ、自分自身の情報を探すときにモデルが真実を伝えることを期待していません。
「私はおそらく地球上で最もChatGPTが出す回答を信頼していない人間です」とオルトマンはバグラー大学の聴衆に笑いながら語りました。