私たちは非常に微妙な段階に入っています:


AIはまだ十分に理解されていないのに、すでに大量に権限を与えられています。

それは取引、資金のスケジューリング、戦略の実行を許可されていますが、
ほとんどのシステムでは、誤りの代償はほぼゼロです——間違えたとしても、「再生成」されるだけです。

エンジニアリングの観点から見ると、これは実際に非常に危険です。
なぜなら、システムが誤りに責任を負わない場合、得られるのは常に「見た目が合理的なだけ」だからです。

これが、私が @miranetwork のようなアプローチをより支持する理由です。
それは、より賢いモデルを積み重ねるのではなく、「検証」と「責任」をシステムの基盤に書き込むことです:
誤りがあれば発見され、騙せなくなり、コストを伴うことになります。

AIが人の意思決定を代行し始めるとき、
信頼性は感情ではなく、仕組みです。
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
0/400
コメントなし
  • ピン