Un nuevo modelo de lenguaje desarrollado en Suiza promete marcar un antes y un después en el acceso a la inteligencia artificial. Diseñado por investigadores de la EPFL y ETH Zurich y entrenado en uno de los superordenadores más potentes del mundo, este modelo se diferencia por su compromiso con la apertura total, el soporte multilingüe y su alineación con principios éticos y legales europeos.Una IA hecha en casa: ciencia pública, infraestructura suizaA diferencia de la mayoría de los modelos de lenguaje desarrollados por gigantes privados en Estados Unidos o China, este nuevo modelo suizo ha sido creado por instituciones académicas públicas y entrenado en infraestructura soberana. El entrenamiento se llevó a cabo en el superordenador Alps, ubicado en el Centro Nacional de Supercomputación de Suiza (CSCS), utilizando electricidad 100% libre de carbono.El resultado es un modelo que no depende de plataformas cerradas ni de recursos extranjeros, sino que representa un ejemplo tangible de soberanía tecnológica aplicada a la IA. Además, se ha desarrollado en cumplimiento con la legislación suiza de protección de datos y derechos de autor, así como las exigencias del Reglamento Europeo de Inteligencia Artificial (EU AI Act).Totalmente abierto y transparente: código, pesos y datosUno de los pilares de este proyecto es la transparencia radical. El modelo se liberará bajo licencia Apache 2.0, una de las licencias de código abierto más permisivas, lo que permite su uso y modificación sin restricciones comerciales.Lo más relevante es que no solo se compartirá el código y los pesos del modelo, sino también los datos de entrenamiento utilizados y los métodos para su obtención. Esto permite que otros investigadores puedan reproducir y auditar el proceso, un paso clave para fomentar la confianza en la IA y facilitar el cumplimiento regulatorio.Soporte multilingüe masivo: IA que habla más de 1.000 idiomasUna de las características más destacadas del modelo es su fluidez en más de 1.000 idiomas, resultado de haber sido entrenado con datos textuales en más de 1.500 lenguas distintas. Este enfoque lo convierte en una herramienta verdaderamente global, capaz de interactuar con usuarios de diferentes contextos lingüísticos y culturales.Para entenderlo mejor: si otros modelos suelen hablar «inglés con acento extranjero», este modelo ha sido enseñado desde el principio en una escuela multilingüe, dónde cada idioma tiene su espacio y relevancia. En términos prácticos, esto significa que podrá generar respuestas coherentes y culturalmente contextualizadas tanto en español como en farsi, quechua o suajili.Dos tamaños, una sola filosofíaEl modelo suizo se lanzará en dos versiones:8.000 millones de parámetros: para uso general, proyectos educativos y organizaciones con recursos limitados.70.000 millones de parámetros: orientado a tareas complejas, entornos empresariales o centros de investigación.La cantidad de parámetros se puede comparar con el número de conexiones neuronales que tiene una red artificial. Cuantos más parámetros, mayor su capacidad de comprensión y generación de texto. El modelo de 70B entrará en la categoría de los más potentes disponibles públicamente a nivel mundial.Datos de calidad y entrenamiento responsableEl modelo fue entrenado con más de 15 billones de tokens (pequeñas unidades de lenguaje), lo que garantiza una base rica y diversa para el aprendizaje. En lugar de raspar la web de forma indiscriminada, el equipo respetó las preferencias de exclusión de sitios web (web crawling opt-outs), demostrando que se puede mantener un rendimiento competitivo sin comprometer los derechos de autor ni la privacidad.Según un estudio reciente, esta práctica no implica pérdidas significativas en tareas comunes de lenguaje. Es un enfoque que refuerza la idea de que es posible construir IA ética y eficaz al mismo tiempo.Un ecosistema global en construcciónEste modelo no surge en aislamiento. Fue presentado en el International Open-Source LLM Builders Summit, que reunió en Ginebra a más de 50 iniciativas globales enfocadas en modelos abiertos y en el desarrollo responsable de la IA.El evento fue organizado por los centros de inteligencia artificial de EPFL y ETH Zurich, y refleja un creciente interés internacional por alternativas abiertas a los modelos comerciales, que en su mayoría permanecen cerrados y controlados por corporaciones.Para ciencia, educación, gobiernos y empresasLa disponibilidad de este modelo bajo una licencia abierta permitirá que sea adoptado por científicos, gobiernos, docentes, desarrolladores y pequeñas empresas.Por ejemplo, una universidad podrá entrenar una versión especializada en derecho internacional sin tener que pagar licencias. O una organización no gubernamental podrá adaptar el modelo para comunicarse en idiomas minoritarios.Esto cambia las reglas del juego para muchos actores que, hasta ahora, dependían de servicios cerrados y poco personalizables. También podría impulsar una nueva generación de aplicaciones localizadas y más justas.Talento, investigación y colaboración pública-privadaNada de esto sería posible sin una sólida colaboración entre instituciones académicas y socios industriales. La construcción del superordenador Alps se logró gracias a una alianza de 15 años entre CSCS, NVIDIA y HPE/Cray.Este tipo de sinergias demuestra que es viable combinar los intereses públicos con la experiencia tecnológica de la industria para crear infraestructura compartida. También es una estrategia eficaz para atraer talento internacional y fomentar una comunidad de investigación abierta.La noticia Un modelo de lenguaje abierto, multilingüe y suizo: la nueva apuesta por la IA transparente fue publicada originalmente en Wwwhatsnew.com por Natalia Polo.