Google firma el código de conducta de la UE para modelos de IA, mientras Meta lo rechaza

Wait 5 sec.

La Unión Europea ha dado un nuevo paso en su estrategia para regular la inteligencia artificial (IA) más avanzada con la publicación de un código de conducta voluntario para los desarrolladores de modelos de propósito general. En un contexto marcado por tensiones entre innovación tecnológica y regulaciones, Google ha anunciado su adhesión a este marco, mientras que Meta ha decidido mantenerse al margen.¿Qué es el código de conducta de la UE para modelos de IA?Se trata de un conjunto de recomendaciones publicado por la UE en julio de 2025, diseñado para orientar el desarrollo y uso responsable de los modelos de IA más potentes, como Gemini de Google o GPT-4 de OpenAI. El código, aunque voluntario por ahora, actúa como una antesala del cumplimiento obligatorio que se iniciará el 2 de agosto bajo la nueva Ley de IA de la UE.Este código se enfoca en modelos de propósito general, es decir, sistemas de IA que pueden realizar una amplia gama de tareas, desde escribir textos hasta programar código o generar imágenes, lo que les da un enorme potencial, pero también implica riesgos significativos.Google se suma, pero con advertenciasEl anuncio de Google lo hizo su presidente de asuntos globales, Kent Walker, quien confirmó que la empresa se uniría al código junto con otros actores como OpenAI y la startup francesa Mistral. Sin embargo, Walker también expresó preocupaciones respecto al enfoque de la UE:«Desviaciones de las leyes de derechos de autor, procesos de aprobación lentos o exigencias que revelen secretos comerciales podrían frenar el desarrollo europeo de modelos de IA y afectar su competitividad».Google ha mostrado disposición para colaborar y ofrecer retroalimentación, pero subraya la necesidad de que el marco normativo no se convierta en una traba para la innovación.Meta se niega a firmarPor el contrario, Meta —la empresa matriz de Facebook e Instagram— ha decidido no adherirse al código. Su director de asuntos globales, Joel Kaplan, argumentó en LinkedIn que:«El código introduce incertidumbres legales y medidas que van más allá del alcance de la Ley de IA».Meta ha sido una voz crítica constante contra la regulación digital europea. Su negativa se inscribe en una serie de fricciones recientes con Bruselas, como la polémica sobre las reglas de publicidad política. En lugar de ajustarse a ellas, Meta optó por prohibir completamente este tipo de anuncios en la UE.El dilema: regulación vs. competitividadMientras la Comisión Europea insiste en avanzar con estas medidas, muchas voces dentro de la industria advierten de las consecuencias. Empresas europeas como Airbus y Lufthansa han solicitado públicamente una pausa en la implementación de las reglas, preocupadas por el riesgo de que Europa quede rezagada frente a Estados Unidos y China en la carrera por la IA.Este debate recuerda a intentar poner reglas en un juego que todavía se está inventando: hay un deseo comprensible de evitar abusos y daños, pero también el riesgo de imponer frenos antes de que la tecnología madure del todo.¿Por qué importa este código?Aunque no es vinculante legalmente, este código marca una pauta para cómo se espera que las empresas actúen, y podría influir en futuras regulaciones. También pone a prueba el equilibrio que la UE quiere lograr entre innovación, transparencia y protección de derechos fundamentales.Para el usuario común, esto significa que los modelos de IA que usamos todos los días —como los asistentes virtuales, generadores de texto o traductores automáticos— podrían estar más controlados y ser más seguros, pero también que podrían demorar su llegada o actualización en Europa si los desarrolladores enfrentan más barreras.¿Qué sigue en el calendario europeo?El 2 de agosto de 2025 comenzará el periodo de cumplimiento para los desarrolladores de modelos de propósito general, dentro del marco de la Ley de IA. A partir de esa fecha, ya no bastará con buenas intenciones: será necesario demostrar que se respetan criterios como la mitigación de riesgos, protección de datos, respeto a la propiedad intelectual y transparencia en el entrenamiento de los modelos.Este momento será clave para observar qué empresas están realmente preparadas para jugar bajo las reglas europeas y cuáles preferirán seguir otros caminos.¿Se puede regular sin frenar?La gran pregunta que flota en el ambiente es si es posible crear normas claras y exigentes sin ahogar la innovación. Para muchos, la clave está en diseñar reglas proporcionales, flexibles y basadas en evidencia, que se actualicen conforme evoluciona la tecnología.Desde Bruselas, el mensaje es claro: Europa no quiere repetir errores del pasado en sectores como las redes sociales, donde la falta de regulación inicial permitió la proliferación de desinformación y abuso de datos. Pero lograr ese equilibrio no será fácil.Un tablero con piezas en movimientoEn resumen, la adhesión de Google al código europeo de IA es un gesto importante en una partida compleja. Mientras unas compañías se alinean con las normas emergentes, otras como Meta optan por resistirlas. El desenlace de este debate no solo afectará a las grandes tecnológicas, sino también a millones de usuarios, empresas y desarrolladores en Europa y más allá.La noticia Google firma el código de conducta de la UE para modelos de IA, mientras Meta lo rechaza fue publicada originalmente en Wwwhatsnew.com por Natalia Polo.