MicrosoftがPhi-Ground 4Bモデルをオープンソース化し、画面クリック精度でOpenAI OperatorとClaudeを上回る

Beatingによると、Microsoftは最近、コンピューター画面上でAIがどこをクリックすべきかという問題を解決するために設計されたPhi-Groundモデルファミリーをオープンソース化しました。4 billionパラメータ版は、指示の計画のためのより大きな言語モデルと組み合わせることで、ShowdownベンチマークにおいてOpenAI OperatorやClaude Computer Useのクリック精度を上回り、ScreenSpot-Proを含む5つの評価のすべてで、サブ100-billion-parameterの全モデルの中で1位にランクインしました。

チームは40 million以上のデータサンプルで学習を行い、学術論文で用いられている3つの一般的な学習手法が、大規模化すると効果がなくなることを見出しました。主要なアプローチはシンプルでした。座標を通常の数値として出力することで、「523, 417」のようにします。これまでの研究では、座標のための専用の位置語彙が考案されていましたが、これはスケールしませんでした。さらにチームは、画像の前にテキストの指示を置くと性能が向上することも発見しました。モデルはピクセルを処理する際に目標を識別できるためです。加えて、DPOのような強化学習手法は、微調整後であっても精度を改善しました。

免責事項:このページの情報は第三者から提供される場合があり、Gateの見解または意見を代表するものではありません。このページに表示される内容は参考情報のみであり、いかなる金融、投資、または法律上の助言を構成するものではありません。Gateは情報の正確性または完全性を保証せず、当該情報の利用に起因するいかなる損失についても責任を負いません。仮想資産への投資は高いリスクを伴い、大きな価格変動の影響を受けます。投資元本の全額を失う可能性があります。関連するリスクを十分に理解したうえで、ご自身の財務状況およびリスク許容度に基づき慎重に判断してください。詳細は免責事項をご参照ください。

関連記事

OpenAIは即時にファインチューニングAPIを提供中止し、既存ユーザーは2027年1月6日まで利用できます

Beatingが監視しているOpenAIの公式発表によると、同社は開発者向けのセルフサービス型ファインチューニングAPIを即時に提供終了するとしています。新規ユーザーはこれ以上ファインチューニングのタスクを作成できず、既存のアクティブユーザーは2027年1月6日までサービスにアクセスできます。デプロイされたファインチューニング済みモデルの推論サービスは、ベースモデルのライフサイクルに紐づけられており、ベースモデルが退役すると停止します。 OpenAIは、GPT-5.5のような同社の新しいベースモデルは、指示とフォーマットに従う点で十分に強力になったと述べています。同社は、ファインチューニングと比べて、プロンプトエンジニアリングとRetrieval-Augmented Generation(RAG)を組み合わせることで、より安価で、より高速で、ほとんどのユースケースに対して十分だとしています。

GateNews34分前

Sakana AIとNvidiaは、不正確な計算の80%をスキップすることで、H100推論を30%高速化することに成功

Sakana AI と Nvidia は、H100 GPU が大規模言語モデルにおいて精度を損なうことなく不正確な計算の 80% をスキップできるようにする疎データ形式の TwELL をオープンソース化しました。この解決策は、H100 上で推論を最大 30% 高速化し、学習を 24% 高速化するとともに、ピーク時のメモリ使用量を削減します。1.50 億パラメータのモデルでのテストでは、この手法により学習中の軽量な正則化によってアクティブなニューロンが 2% 未満に抑えられ、7 つの下流タスクすべてで性能の低下は見られませんでした。

GateNews1時間前

ティルド・リサーチがムオン・オプティマイザーはニューロンの25%を破壊すると発見。オーロラの代替案はデータ効率を100倍に向上。

Tilde Researchによると、DeepSeek V4やKimi K2.5を含む主要なAIモデルが採用しているMuonオプティマイザには隠れた欠陥があります。それは、初期トレーニングの間にMLP層のニューロンのうち25%以上が永久に死んでしまうことを引き起こすというものです。チームは代替オプティマイザであるAuroraを設計し、オープンソース化しました。1.1Bパラメータのモデルは、わずか100Bトークンだけで学習し、HellaSwagやWinograndeのような言語理解ベンチマークにおいて、36Tトークンで学習したQwen3-1.7Bと同等の性能を達成し、データ効率が約100倍向上したことを示しています。AuroraはMuonと比べて計算オーバーヘッドが6%増えるだけで、直接の置き換えとして利用できます。

GateNews2時間前

Nvidiaは2026年初頭にAI投資として400億ドル超を拠出し、OpenAIへの300億ドルを含む

TechCrunchによると、Nvidiaは2026年の最初の数か月にAI企業への株式投資として400億ドル超を拠出し、最大の単独コミットメントとしてOpenAIへの300億ドルの投資を行いました。半導体メーカーは、ガラスメーカーのCorningに最大32億ドル、データセンター運営会社のIRENに最大21億ドルも拠出すると約束しており、これには5年間のワラントと、Nvidia Blackwellシステムを用いたマネージドGPUクラウドサービス向けの別途34億ドルの契約が含まれています。FactSetのデータによれば、Nvidiaは今年、上場企業に対して数十億ドル規模の投資を7件発表するとともに、非公開のスタートアップに対する資金調達ラウンドに約2ダース(20件程度)参加しています。

GateNews5時間前

輝達開放AIの長期パートナーであるDeepinfraが1億700万ドルのB輪資金調達を獲得し、「トークン工場」を構築

DeepInfra、人工知能の新興企業は1億7000万ドルのBラウンド資金調達の完了を発表。500 GlobalとGoogleの初期エンジニアであるGeorges Harikがリードし、NVIDIA(輝達)、Samsung Next、Supermicroなどの戦略投資家が追随した。公式発表によると、今回の出資は、人工知能アプリケーションが「モデルの学習」から「大規模な推論」へ移行する際に直面する計算コストと効率のボトルネックを解消するため、世界のデータセンター容量を拡張することに用いられる。 AI推論需要の急増が企業導入の重要なボトルネックに 人工知能が商用化へ進む中で、企業のワークロードの中心は大きく移行している。DeepInfraは、Aラウンド資金調達以降、自社プラットフォームが処理するToken量が25倍に増加したことを観測しており、推論(Inference)が企業の人工知能ワークロードを牽引する主力になっていることを示している。現在、オープンソースモデルの性能は専有システムに匹敵する水準に達しており、革新のハードルを大幅に下げている。だが、その流れとともに自律的な知能体(Age

ChainNewsAbmedia6時間前

ECB(欧州中央銀行)理事会メンバーのエスクリバーが5月9日に金融インフラに対するAIリスクを警告

ECB(欧州中央銀行)政策理事会メンバーのエスクリバ氏は5月9日に、中央銀行は人工知能の進展を踏まえ、金融インフラのレジリエンス(強靭性)とサイバーセキュリティの堅牢性を再評価する必要があると述べた。氏があるイベントで行った発言によれば、最近のAIの進歩は、新たに生じるリスクに耐えられるように金融システムを見直すことを迫っている。

GateNews6時間前
コメント
0/400
コメントなし