Su modelo no solo es poderoso y libre, sino que también cuesta mucho menos – Desde dentro
Operai comenzó sus primeros modelos con pesos abiertos desde 2019: GPT-OS-12120B y GPT-OS-20B. Dos sistemas de argumentación que marcan

Operai comenzó sus primeros modelos con pesos abiertos desde 2019: GPT-OS-12120B y GPT-OS-20B. Dos sistemas de argumentación que marcan un cambio radical en la estrategia de la compañía después del éxito de Deepseek R1 a principios de año.
¿Por qué es importante?. Operai tiene que reconocer la defensa de la seguridad de los modelos cerrados de que «estaba en el lado equivocado de la historia» con modelos abiertos. El terremoto que Deepseek causó en enero la obligó a repensar toda su estrategia.
El contexto. Hasta ahora, Operai había mantenido todos los modelos de GPT-2 cerrados y justificado por razones de seguridad. Pero los competidores como objetivo con las empresas de llama y especialmente chinas con Depseek, Qwen y Kimi han ganado el suelo en el ecosistema abierto.
El punto de inflexión se produjo cuando Depseek R1 demostró que era posible crear modelos de argumentación avanzados con una fracción de los costos de los estadounidenses. Sam Altman admitió que OpenAi «tenía que encontrar otra estrategia de código abierto». Y aquí está.
En números:
- El modelo principal, GPT-OS-12120BFunciona con un solo GPU de 80 GB con solo 5,100 millones de parámetros activos de sus 117,000 millones.
- Su hermano pequeño, GPT-OS-20BSe puede llevar a cabo en una computadora portátil con 16 GB de memoria (aunque la velocidad con dicha configuración sin nosotros podemos tratar de ser muy lentos).
La situación actual. El Puntos de referencia independiente Usted coloca GPT-OS-1220B con una puntuación de 58 en el índice de inteligenciaExagerado O3-Mini, pero bajo O3 y O4 mini.
En el caso de las tareas de programación competitiva, logra 2622 puntos en Codeforces, mientras que Depseek R1 logra menos puntos con un modelo mucho más pesado.
Detallado. La arquitectura utiliza un sistema de mezcla de expertos (Moe, Mezcla de expertos) Esto solo activa una fracción de los parámetros totales para cada consulta. Esto permite que el modelo de parámetros de 120,000 millones active solo el 4.4% en cada consulta, mientras que los 20,000 millones de 17.2% se activan.
Ambos modelos mantienen la capacidad de gastar la cadena sin monitoreo directo, después del principio de que el pensamiento visible es necesario es necesario para reconocer un comportamiento inapropiado.
Si pero. OpenAai no ha realizado datos de capacitación pública y ha mantenido parte del secreto. Tampoco incluye funciones multimodales que se limiten al texto.
- Las alucinaciones son significativamente más altas que en sus propios modelos: 49% o 53% en comparación con el 16% de O1.
Entre líneas. Este comienzo reacciona a la presión competitiva china y a la nueva administración Trump, que la compañía estadounidense ha pedido publicar más tecnología para «promover la introducción global de los valores estadounidenses».
La compañía ha trabajado con socios como Orange, Snowflake y AI Suecia para aplicaciones reales para confirmar si las ventajas continúan invirtiendo en modelos abiertos.
Profundizar. Los modelos están bajo la licencia Apache 2.0 en plataformas como B. Disponible AbrazoCon soporte nativo en herramientas como Ollama, LM Studio y Servicios Nube El proveedor principal. Operai organizó un desafío de equipo de red Con 500,000 dólares estadounidenses en precios para determinar los riesgos de seguridad.
Esta es la reacción de OpenAI a su momento profundo: el conocimiento de que las innovaciones abiertas no solo son inevitables, sino también necesarias para seguir siendo competitivas en un panorama, en el que los costos y la accesibilidad son tan importantes como el rendimiento.
En | La paradoja GPT-5: OpenAi necesita el mayor salto en la historia de la IA cuando parece más imposible
Excelente imagen | Imán feyissaBDima solominia