OpenAI lanza gpt-oss, modelos de razonamiento avanzado de código abierto

Wait 5 sec.

OpenAI ha presentado a gpt-oss-120b y gpt-oss-20b, dos modelos de razonamiento avanzado “con pesos accesibles, que ofrecen un rendimiento sólido en el mundo real a bajo coste” y que según la compañía están publicados bajo la licencia Apache 2.0, por lo que son de código abierto.OpenAI explica que “gpt-oss-120b alcanza una paridad cercana con OpenAI o4-mini en pruebas básicas de razonamiento, funcionando de manera eficiente en una única GPU de 80GB”. Por su parte, “el modelo gpt-oss-20b ofrece resultados similares a OpenAI o3‑mini en pruebas comunes y puede ejecutarse en dispositivos edge con solo 16GB de memoria, lo que lo hace ideal para casos de uso en el dispositivo, inferencia local o iteración rápida sin una infraestructura costosa”.Con lo ya expuesto, es lógico pensar que gpt-oss-120b y gpt-oss-20b van dirigidos a contextos diferentes, estando el primero más orientado a entornos profesionales y empresariales y el segundo siendo más compatible con equipos más modestos, lo que debería desembocar en unas mayores posibilidades de funcionar en un equipo doméstico.Profundizando en los requisitos y según lo publicado por OpenAI en el repositorio de GitHub dedicado a los dos modelos recientemente presentados, es necesario tener Python 3.12, en macOS se pide utilizar las herramientas de línea de comandos de Xcode, en Linux la implementación de referencia requiere del CUDA de NVIDIA y en Windows todavía no han sido probados, aunque es posible emplear Ollama para ejecutarlos localmente.La compañía dirigida por Sam Altman también explica que “los modelos se sometieron a un posentrenamiento mediante un proceso similar al utilizado para o4-mini, que incluye una etapa de ajuste supervisado y una fase de aprendizaje por refuerzo de alto cómputo”. El propósito de esto “fue alinear los modelos con la especificación de modelos de OpenAI Model Spec⁠ y enseñarle a aplicar el razonamiento en cadena (CoT)⁠ y el uso de herramientas antes de generar una respuesta. Al utilizar las mismas técnicas que nuestros modelos privativos de razonamiento de última generación (SoTA), los modelos demuestran capacidades excepcionales tras el postentrenamiento”.Los modelos han sido posentrenados siguiendo el formato de indicaciones harmony de OpenAI y la compañía ha publicado como código abierto el renderizador de harmony en Python y Rust con el fin de facilitar su adopción. También hay “implementaciones de referencia para ejecutar inferencias con PyTorch y en la plataforma Metal de Apple, junto con herramientas de ejemplo para el modelo”.OpenAI expone que “el lanzamiento de gpt-oss-120b y gpt-oss-20b representa un avance significativo para los modelos con pesos accesibles. Dado su tamaño, estos modelos suponen avances significativos tanto en capacidad de razonamiento como en seguridad. Al añadir estos modelos abiertos a nuestra oferta actual de API, nuestro objetivo es acelerar la investigación de vanguardia, fomentar la innovación y permitir un desarrollo de IA más seguro y transparente en una amplia variedad de casos de uso”. Otros objetivos son reducir las barrares para los mercados emergentes y crear un modelo saludable de modelos abiertos para lograr que la inteligencia artificial sea accesible y beneficiosa para todos.Cómo usar gpt-oss-20b con PodmanDespués de exponer los aspectos más importantes de gpt-oss-120b y gpt-oss-20b, vamos a enseñar cómo instalar el segundo a través de Ollama con un contenedor de Docker puesto en funcionamiento sobre Podman.En primer lugar hay que instalar y poner en funcionamiento el contenedor de Ollama disponible en Docker Hub de la siguiente manera en Podman:podman run -d -v /subdirectorio/en/tu/directorio/personal:/root/.ollama:z --network=bridge -p 11434:11434 --name contenedor-ollama docker.io/ollama/ollamaEs importante tener en cuenta que estas instrucciones van dirigidas a un sistema GNU/Linux basado en openSUSE o Fedora que usa SELinux como módulo de seguridad, de ahí el :z que aparece en el final del volumen establecido. Por otro lado, /subdirectorio/en/tu/directorio/personal debe ser sustituido por la ruta que el usuario quiere emplear para almacenar los modelos dentro de su directorio personal, que en mi caso sería /home/edu debido a que ahora utilizo Aeon Desktop.El segundo paso consiste en acceder al propio contenedor, cosa que se hace de la siguiente manera:podman exec -it contenedor-ollama /bin/bashUna vez dentro del contenedor, instalamos localmente el modelo gpt-oss-20b con este comando:ollama pull gpt-oss:20bY tras instalar el modelo, es posible iniciarlo para la realización de consultas:ollama run gpt-oss:20bEs importante tener en cuenta que para realizar estos pasos se requiere de un equipo relativamente potente con al menos 16GB de RAM. En el caso de este servidor, el ordenador monta un Intel Core i5-12600K, 32GB de RAM DDR4 a 3.200MHz mediante XMP y una Radeon RX 7600 de 8GB.La entrada OpenAI lanza gpt-oss, modelos de razonamiento avanzado de código abierto es original de MuyLinux