Le 5 janvier, CoinWorld a annoncé qu’avec l’arrivée de 2026, le domaine de la sécurité de l’IA a accueilli le premier test de référence majeur. LISABench a annoncé aujourd’hui le lancement de l’évaluation du premier trimestre 2026, visant à déterminer, par des tests en situation réelle, le modèle d’IA de pointe le plus performant dans le domaine de la détection de vulnérabilités dans les contrats intelligents Web3. De plus, LISABench a lancé une activité de récompense basée sur des prévisions de votes communautaires. La compétition de cette évaluation est prestigieuse, réunissant KIMI K2 (Moonshot AI), DeepSeek V3.2 (深度求索), QWen 3 30b-a3b (阿里云), GLM 4.6 (智谱 AI), GPT-5.2 (OpenAI), Gemini-3-pro-preview (Google) et Claude 4.5 Sonnet (Anthropic), les 7 modèles de pointe les plus avancés au monde (Frontier Models) en compétition. Actuellement, la plateforme de vote pour prédire le gagnant du Q1 est ouverte. Par ailleurs, la bibliothèque de code des standards d’évaluation de LISABench est désormais open source sur GitHub, permettant aux développeurs de consulter et de reproduire.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
LISABench 2026 Premier test de l'année, sept modèles d'IA de premier plan s'affrontent pour devenir le roi de la détection de vulnérabilités Web3
Le 5 janvier, CoinWorld a annoncé qu’avec l’arrivée de 2026, le domaine de la sécurité de l’IA a accueilli le premier test de référence majeur. LISABench a annoncé aujourd’hui le lancement de l’évaluation du premier trimestre 2026, visant à déterminer, par des tests en situation réelle, le modèle d’IA de pointe le plus performant dans le domaine de la détection de vulnérabilités dans les contrats intelligents Web3. De plus, LISABench a lancé une activité de récompense basée sur des prévisions de votes communautaires. La compétition de cette évaluation est prestigieuse, réunissant KIMI K2 (Moonshot AI), DeepSeek V3.2 (深度求索), QWen 3 30b-a3b (阿里云), GLM 4.6 (智谱 AI), GPT-5.2 (OpenAI), Gemini-3-pro-preview (Google) et Claude 4.5 Sonnet (Anthropic), les 7 modèles de pointe les plus avancés au monde (Frontier Models) en compétition. Actuellement, la plateforme de vote pour prédire le gagnant du Q1 est ouverte. Par ailleurs, la bibliothèque de code des standards d’évaluation de LISABench est désormais open source sur GitHub, permettant aux développeurs de consulter et de reproduire.