OpenAI ha lanzado el modelo de razonamiento seguro Código abierto gpt-oss-safeguard, que admite la clasificación impulsada por políticas

GateNews

PANews 29 de octubre, OpenAI lanzó hoy el modelo de razonamiento seguro de código abierto gpt-oss-safeguard (120b, 20b), que permite a los desarrolladores proporcionar políticas personalizadas para la clasificación de contenido durante el razonamiento, así como las conclusiones y la cadena de razonamiento del modelo. Este modelo está basado en el ajuste fino de pesos abiertos gpt-oss y utiliza la licencia Apache 2.0, y se puede descargar desde Hugging Face. Las evaluaciones internas muestran que su precisión en múltiples políticas supera a gpt-5-thinking y gpt-oss, y su rendimiento en conjuntos de datos externos es comparable al de Safety Reasoner. Las limitaciones incluyen: en muchos escenarios de anotación de alta calidad, los clasificadores tradicionales siguen siendo superiores, y el tiempo de razonamiento y la Potencia computacional son relativamente altos. ROOST establecerá una comunidad de modelos y publicará un informe técnico.

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.
Comentar
0/400
Sin comentarios