🚨 緊 breaking:OpenAIが、ChatGPTは常に何かを作り出すことを証明する記事を公開しました。



時々ではありません。次のアップデート前でもありません。常にです。彼らは数学的に証明しました。

完璧な訓練データと無制限の計算能力を持っていても、AIモデルは常に自信を持って完全に誤ったことを言います。これは彼らが取り組んでいるバグではありません。これがこれらのシステムが根本的にどのように機能しているかを説明しています。

そして、彼ら自身の数字は残酷です。OpenAIの推論モデルo1は16%のケースで幻覚を見ます。彼らの新しいモデルO3は?33パーセント。新しいo4-miniは?48パーセント。彼らの最新モデルが提供する情報のほぼ半分は作り話の可能性があります。「より賢い」モデルは実際にはますます真実を言うのが苦手になっています。

これが修正できない理由です。言語モデルは次の単語を確率に基づいて予測することで動作します。不確かな状況に直面すると、彼らは止まりません。それを知らせません。彼らは推測します。そして、彼らが訓練されたのはまさにそのためです。完全な自信を持って推測し続けます。

研究者たちは、これらのモデルの品質を測るために使用されるAIの主要な10の基準を調査しました。10のうち9つは、「わからない」と答えることと、完全に誤った答えを出すことに同じ点数を与えています:ゼロ点です。テストシステム全体が正直さを罰し、推測を報酬します。

したがって、AIは最適な戦略を学びました:常に推測すること。不確実性を認めないこと。たとえ作り話をしているときでも、自信を持っているように見せるのです。

OpenAIが提案する解決策は何ですか?ChatGPTに「わからない」と言わせることです。不確かなときに。彼らの計算によると、これにより約30%の質問に答えられなくなることになります。ChatGPTに3回質問して、「十分に自信がないので答えられません」と返されるのを想像してみてください。ユーザーは夜のうちに去ってしまうでしょう。修正策は存在しますが、それは製品を殺してしまいます。

これはOpenAIだけの問題ではありません。DeepMindと清華大学も独立して同じ結論に達しています。世界最高のAI研究所の3つが、それぞれ別々に働きながら、皆同意しています:これは永続的な問題です。

ChatGPTが答えを出すたびに、あなたは尋ねてください:これは本物ですか、それともただの自信に満ちた推測ですか?

こちらがCome-from-Beyondの👇の回答です。
彼らはなぜ

#QUBIC #Aigarth .*が「わからない」と言う能力をその中心に置き始めたのかを理解し始めています。

$QUBIC
QUBIC5.62%
原文表示
post-image
post-image
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
0/400
コメントなし
  • ピン