Malus.sh: la herramienta que «libera» software open source de su licencia con IA y deja a los autores originales sin copyright

Wait 5 sec.

Una empresa con licencia LLC ha lanzado Malus.sh (pronunciado «malice»), una herramienta de inteligencia artificial diseñada para hacer algo que hasta hace dos años habría requerido años de trabajo de varios equipos legales y técnicos: clonar cualquier proyecto de software open source mediante «clean room design», produciendo código que técnicamente no infringe el copyright del original pero replica todas sus funcionalidades. El resultado, en palabras del propio sitio web del producto, es «código legalmente distinto con licencia amigable para corporaciones. Sin atribución. Sin copyleft. Sin problemas». Victor Tangermann lo cubre en Futurism, citando el reportaje original de 404 Media. La pieza es satírica en su tono, pero el producto es real, tiene clientes de pago y un cofundador que lleva años investigando la economía política del software open source en Naciones Unidas.Mike Nolan, cofundador de Malus.sh y especialista de la ONU, lo dijo sin rodeos a 404 Media: «Funciona». Su argumento es que si la herramienta fuera «solo sátira», quedaría descartada por trabajadores de open source que «se sienten demasiado especiales, demasiado únicos y demasiado inteligentes para ser ellos los que estén en el lado equivocado de los despidos o de la economía de la situación». La sátira en este caso esconde un producto real con clientes reales que pagan por desactivar las obligaciones de licencia de cualquier proyecto que decidan procesar.Cómo funciona el «clean room design» automatizadoEl proceso del «clean room» es una técnica legal que se remonta a los años 80, cuando los competidores de IBM (especialmente Compaq) hicieron ingeniería inversa del BIOS de los PC originales. El método, que la serie de HBO «Halt and Catch Fire» dramatizó con precisión histórica, consiste en separar el trabajo en dos equipos. Un equipo «sucio» estudia el software original, lo descompone funcionalmente y produce especificaciones detalladas: qué hace cada función, qué inputs recibe, qué outputs genera, cómo se comporta en cada caso. El segundo equipo «limpio» jamás ve el código original; solo recibe las especificaciones y escribe una implementación nueva desde cero. El producto resultante es funcionalmente equivalente al original pero técnicamente independiente desde el punto de vista del derecho de autor, porque no se ha derivado del código protegido.Hasta abril de 2026, ese proceso era caro y largo. Reescribir una librería de software seria con clean room podía llevar meses con un equipo dedicado. La herramienta Malus.sh hace eso mismo en cuestión de horas usando IA generativa. El equipo «sucio» ya no es humano: es un modelo que analiza el código original y produce las especificaciones automáticamente. El equipo «limpio» tampoco es humano: es otro modelo que recibe esas especificaciones y produce código nuevo en el lenguaje y bajo la licencia que el cliente prefiera. Lo que requería un proyecto de meses y costaba seis cifras se está reduciendo a un proceso de horas y unos cientos de dólares.El caso chardet: el incidente real que precede a MalusMalus.sh es el producto que pone nombre comercial a un fenómeno que ya está ocurriendo. El mes pasado, un desarrollador llamado Dan Blanchard publicó una «reescritura desde cero, con licencia MIT» de chardet, una librería popular de Python para detección de codificación de caracteres. La reescritura la hizo Blanchard usando Claude Code de Anthropic, en lo que él mismo describe como «vibe coding». El proyecto generó debate inmediato en la comunidad de desarrolladores: ¿es legítimo reescribir una librería open source ampliamente usada y publicarla bajo una licencia más permisiva, sin atribuir a los autores originales? ¿Hasta qué punto el resultado es realmente código nuevo y no una copia disfrazada? Ars Technica lo cubrió en su momento como un caso paradigmático del nuevo tipo de tensión que la IA está introduciendo en el ecosistema open source. Las preocupaciones del informe Black Duck OSSRA 2026 ya advertían de que el código generado por IA puede reproducir fragmentos bajo licencias restrictivas como GPL o AGPL e introducir riesgos de cumplimiento que pocas organizaciones están preparadas para gestionar.Blanchard, que finalmente publicó su versión bajo la licencia «zero-clause BSD» reconocida por la comunidad open source, le dijo a 404 Media: «He visto Malus.sh, y como mucha gente, no estaba seguro al principio de si era sátira, porque sé que probablemente alguien acabará haciendo algo así de verdad». Su veredicto sobre el modelo de negocio del software de licencia es directo: «Una reescritura que habría llevado meses o años a un equipo, ahora se puede hacer en días con IA. Como ingeniero de software profesional, no me encanta que mucho del modelo de negocio alrededor de vender software esté en peligro, pero no creo que haya forma de meter al genio otra vez en la botella».La amenaza al modelo SaaSEl temor que Malus.sh cristaliza no es solo del open source: alcanza al modelo de software como servicio. Si un competidor puede replicar funcionalmente cualquier producto SaaS en días con IA, las propuestas de valor basadas únicamente en el código pierden defendibilidad. Forbes ha documentado la inquietud creciente entre las compañías SaaS, y los inversores no han tardado en reaccionar: la acción de Oracle ha sufrido caídas significativas durante 2026 por miedo a este efecto, y Larry Ellison ha tenido que dedicar tiempo en presentaciones de resultados a desmentir el «apocalipsis del SaaS». La explosión del vibe coding y la facilidad con la que herramientas como Claude Code permiten reproducir funcionalidades complejas en cuestión de horas es uno de los catalizadores principales de esta presión sobre el modelo SaaS tradicional.El debate legal sigue abiertoEl concepto de «clean room» tiene jurisprudencia robusta para reverse engineering humano, pero la traducción al contexto IA está sin probar en tribunales. Las preguntas pendientes son varias. Si un modelo de IA fue entrenado con código protegido por copyright, ¿es válido considerar el clean room cuando el «equipo limpio» es ese mismo modelo? ¿Cómo se demuestra que el segundo modelo «no ha visto» el original cuando ambos comparten una arquitectura entrenada potencialmente con todos los repositorios públicos de internet? La respuesta no es uniforme: tribunales en Estados Unidos, la UE, Reino Unido y Asia llegarán probablemente a conclusiones distintas, generando un mapa legal fragmentado donde el riesgo de uso comercial dependerá enormemente de la jurisdicción. La pregunta de quién posee los derechos de autor sobre creaciones generadas total o parcialmente con inteligencia artificial sigue siendo uno de los grandes debates jurídicos abiertos de esta década.Mi valoraciónMalus.sh es la herramienta más cínicamente honesta que ha producido la industria de la IA hasta la fecha, y precisamente por su cinismo es valiosa. Lo que otros venden con eufemismos («aceleramos el desarrollo», «automatizamos refactoring», «potenciamos productividad»), Malus.sh lo formula con la brutalidad que el momento histórico merece: estamos automatizando el proceso por el cual décadas de trabajo open source pueden ser apropiadas y rebrandeadas como propiedad intelectual corporativa, sin atribución y sin obligación de compartir las mejoras. Esa es la consecuencia lógica de un mercado donde el código se ha convertido en un commodity producible a velocidad de máquina. La sátira funciona porque el producto real es indistinguible de la versión satírica. La cuestión que importa no es si Malus.sh es ético; es si el ecosistema legal y comunitario tiene las herramientas para responder. La respuesta corta es que no las tiene. Las licencias copyleft (GPL, AGPL) fueron diseñadas para humanos que toman código y lo modifican; no para sistemas que producen reimplementaciones funcionalmente equivalentes a partir de especificaciones. Los tribunales tardarán años en sentar jurisprudencia, y para cuando lo hagan, una porción significativa del software corporativo de pago habrá sido reemplazada por clones generados por IA. La industria de SaaS, que se ha construido sobre el supuesto de que la barrera técnica es lo bastante alta para sostener precios premium, se enfrenta a un desafío estructural. Las que sobrevivan lo harán por razones distintas a las que las hicieron grandes: marca, ecosistema, datos propietarios, integración profunda con flujos de cliente, calidad del soporte, no por la dificultad del software en sí. Para los desarrolladores individuales que construyen productos open source con licencia restrictiva, la conclusión es incómoda. Si tu librería es útil, alguien va a clonarla con IA en cuestión de meses. La defensa no es legal; es comercial. Comunidad fuerte, integraciones profundas con otros proyectos, velocidad de desarrollo de nuevas funcionalidades, soporte profesional. Lo que no se puede automatizar todavía es lo único que va a defender el valor.Preguntas frecuentes¿Es legal usar Malus.sh comercialmente? Depende de jurisdicción y de cómo se haya aplicado el clean room. La doctrina legal del clean room está bien establecida para reverse engineering humano, pero su aplicación con IA generativa no ha sido probada en tribunales. Los riesgos de litigio son reales y específicos al país.¿Qué tipos de software se pueden clonar con esta técnica? En teoría, cualquier software cuyas funcionalidades se puedan describir en especificaciones detalladas. Funciona mejor para librerías y herramientas con interfaces bien definidas; es más difícil para sistemas complejos con dependencias profundas o lógica de negocio única.¿Qué pueden hacer los autores originales? Pocas opciones legales claras hoy. Pueden documentar similitudes funcionales y arquitectónicas para futuros litigios, pero la jurisprudencia favorece históricamente el clean room cuando el proceso está bien documentado.La noticia Malus.sh: la herramienta que «libera» software open source de su licencia con IA y deja a los autores originales sin copyright fue publicada originalmente en Wwwhatsnew.com por Natalia Polo.