Cientos de empleados de Google y OpenAI firman carta abierta pidiendo límites a la IA militar

Wait 5 sec.

Casi mil trabajadores de Google y OpenAI han firmado un documento conjunto para plantarse frente al ejército de los Estados Unidos. Según recoge la publicación TechRadar, los ingenieros exigen límites claros al uso militar de sus algoritmos, rechazando categóricamente que este software acabe integrado en sistemas de vigilancia masiva o armamento autónomo.La protesta llega en un momento de máxima presión desde el Pentágono hacia los desarrolladores. Hace poco, el gobierno estadounidense etiquetó a Anthropic como un riesgo para su cadena de suministro porque la compañía se negó a ceder su tecnología para vigilar ciudadanos, dejando un hueco que ahora intentan llenar sus competidores."We Will Not Be Divided": el rechazo frontal a las armas que deciden solasLos firmantes han articulado toda su queja bajo un lema muy claro que rechaza cualquier división interna impulsada desde fuera. Denuncian que las autoridades están intentando enfrentar a las tecnológicas usando el miedo a que otra empresa firme primero, una táctica que solo funciona si los empleados no se comunican entre ellos.El texto utiliza la expresión "Department of War" para referirse al actual Departamento de Defensa, mostrando un evidente rechazo a sus peticiones. Los programadores consideran que los modelos actuales tienen tanto poder que estas negociaciones superan un simple acuerdo comercial, exigiendo líneas rojas innegociables para proteger los derechos civiles más básicos.Este nivel de organización interna recuerda a lo ocurrido dentro de las oficinas de Mountain View hace seis años. Durante 2018, miles de trabajadores tumbaron el Proyecto Maven frenando un contrato militar que pretendía utilizar sistemas de aprendizaje automático para analizar vídeos grabados por drones en diferentes zonas de conflicto internacional.Aquel episodio obligó a fijar unos principios éticos donde prometían no fabricar software diseñado para causar daño físico. Sin embargo, los gobiernos vuelven a la carga buscando desplegar modelos mucho más grandes, reavivando el temor a dejar el control de objetivos militares en manos de códigos informáticos de respuesta impredecible.Dejar que los servidores tomen decisiones tácticas plantea dudas enormes sobre la seguridad global real. Diferentes simulaciones recientes demuestran que la inteligencia artificial tiende a elegir ataques nucleares en escenarios bélicos, mostrando una agresividad de base que aterra a las mismas personas encargadas de programar y entrenar todas estas herramientas.La industria actual asume debates complejos que van desde el impacto de los algoritmos en las cifras de empleo hasta su integración armamentística. Más allá del ámbito laboral, los empleados avisan que sus sistemas permiten rastrear a poblaciones enteras procesando datos de móviles y cámaras, anulando la privacidad diaria con eficacia aterradora.El sector armamentístico sabe que necesita actualizarse rápidamente y voces importantes asumen que los equipos tradicionales están siendo sustituidos por redes neuronales. Ante este cambio de paradigma inminente, el Pentágono presiona constantemente a Google y OpenAI para cerrar acuerdos multimillonarios que acaben ocupando el espacio que otras firmas descartaron por convicciones éticas.Ver a trabajadores de corporaciones rivales firmando un mismo documento refleja la gravedad del asunto sobre la mesa. Las personas encargadas de escribir el código más avanzado del mundo se niegan a competir para ver quién cede antes, estableciendo un muro conjunto frente a las peticiones gubernamentales de vigilancia y armamento.