Résultats de la recherche pour "GPT"
Aujourd'hui
04:01

Ant Bailing lance un modèle d’IA Ring-2.6-1T avec 87,6 de score PinchBench

D'après Jinshi, Ant Bailing a publié aujourd'hui son modèle de raisonnement phare Ring-2.6-1T, un modèle de mille milliards de paramètres, conçu pour l'exécution de tâches complexes dans le monde réel. Le modèle intègre un mécanisme d'« Effort de raisonnement » ajustable prenant en charge des niveaux d'intensité d'inférence élevés et xhigh. Lors de l'exécution de tâches réelles
Plus
14:41

Step Audio 2,5 Realtime est sorti : score subjectif 80,41, écrase GPT-Realtime-1.5 de 18 %, les appels vocaux coûtent 3,8 yuan/heure

Selon Beating, Step Audio 2,5 Realtime, un modèle vocal temps réel de bout en bout par Step Cosmos, a été lancé sur son API de plateforme ouverte en avril 2026. Le modèle met l’accent sur des conversations naturelles avec des personas de personnages personnalisables et une perception paralinguistique (ton, pauses, soupirs). Dans officiel
Plus
06:20

WORLD3 lance aujourd’hui le réseau de routage RouterLink alimenté par l’IA, prenant en charge plus de 68 modèles, dont GPT-5,5 et Claude Opus 4,7

D’après ChainCatcher, WORLD3 a lancé aujourd’hui son réseau décentralisé de routage d’IA RouterLink, permettant l’utilisation permanente du domaine routerlink.ai. La plateforme prend désormais en charge 68+ modèles auprès de 20+ fournisseurs, avec une disponibilité de 99,9 % et une vélocité de règlement quotidienne dépassant 1,5 million de dollars en $WAI . La diffusion en direct
Plus
WAI-7,33%
01:25

OpenAI publie trois modèles vocaux dans l’API en temps réel ; GPT-Realtime-2 affiche une fenêtre de contexte de 128K

D'après Beating, OpenAI a publié trois modèles vocaux dans son API Realtime : GPT-Realtime-2 pour les conversations vocales avec raisonnement, GPT-Realtime-Translate pour la traduction en temps réel, et GPT-Realtime-Whisper pour la transcription en continu. GPT-Realtime-2 est le premier modèle vocal d'OpenAI avec un niveau de GPT-5 re
Plus
07:57

SenseNova U1 réduit les coûts de génération d’images à un dixième des images de ChatGPT Images 2.0, SenseTime publie sa première moitié rentable en 2025

D’après une récente interview accordée à CNBC, le cofondateur et directeur scientifique de SenseTime, Lin Dahua, a déclaré que le dernier modèle de l’entreprise, SenseNova U1, dispose de capacités de génération d’images derrière OpenAI GPT Image 2 et Google Gemini Nano Banana, mais ne coûte qu’un dixième de ChatGPT Images 2.0. SenseNova U1 est un/une
Plus
04:29

Altman : Une tarification par jetons appelée à devenir obsolète tandis que GPT-5.5 se tourne vers l’exécution des tâches plutôt que le nombre de jetons

Message de Gate News, 29 avril — Le PDG d’OpenAI, Sam Altman, a déclaré dans une interview accordée à Ben Thompson sur Stratechery que la tarification basée sur des jetons n’est pas un modèle viable à long terme pour les services d’IA. En prenant GPT-5.5 comme exemple, Altman a noté que même si le prix par jeton est nettement plus élevé que celui de GPT-5.4, le modèle utilise bien moins de jetons pour accomplir la même tâche, ce qui signifie que les clients ne se soucient pas du nombre de jetons : ils ne se soucient que de savoir si la tâche est accomplie et du coût total.
Plus
00:30

ZetaChain lance Anuma, une plateforme d’agrégation d’IA axée sur la confidentialité

Message de Gate News, 28 avril — L’équipe de ZetaChain a officiellement lancé Anuma, une plateforme d’agrégation d’IA axée sur la confidentialité qui permet aux utilisateurs d’accéder à plusieurs modèles d’IA — dont GPT, Claude, Gemini, Grok, DeepSeek, Kimi et Qwen — via une seule interface. Anuma propose un stockage local axé sur la confidentialité, une collaboration entre modèles, et un système de mémoire de contexte unifié entre différents modèles. L’interface web de la plateforme est désormais ouverte à l’utilisation.
Plus
06:31

DeepSeek réduit les prix de V4-Pro de 75 % et fait chuter les coûts de cache d’API à un dixième

Message de Gate News, 27 avril — DeepSeek a annoncé une réduction de 75 % sur son nouveau modèle V4-Pro pour les développeurs et a réduit les prix des caches de requêtes d’entrée sur l’ensemble de sa gamme d’API à un dixième des niveaux précédents. Le modèle V4, publié le 25 avril en versions Pro et Flash, a été optimisé pour les processeurs Ascend de Huawei. DeepSeek a déclaré que V4-Pro surpasse les autres modèles open source sur des benchmarks de connaissances mondiales et se classe deuxième seulement derrière Gemini-Pro-3.1, le modèle propriétaire de Google. La famille V4 est conçue spécifiquement pour les agents IA qui gèrent des tâches complexes au-delà des capacités d’un chatbot. Les coûts de l’API V4-Pro sont déjà inférieurs à ceux des principaux concurrents occidentaux : 3,48 $ pour un million de tokens de sortie, contre pour GPT-4.5 d’OpenAI. La tarification V4-Flash s’élève à 0,14 $ par million de tokens d’entrée et à 0,28 $ par million de tokens de sortie, ce qui pourrait permettre des applications rentables telles que l’examen de l’ensemble d’une base de code ou de documents réglementaires en une seule requête.
Plus