DeepSeek - L'IA chinoise qui livre du code pourri aux ennemis du régime

Wait 5 sec.

Vous pensiez que l’IA était neutre ? Que les algorithmes étaient objectifs ? Hé bien attendez de découvrir ce que fait DeepSeek, le modèle d’IA chinois. Apparemment ce petit malin génère volontairement du code troué comme une passoire en fonction de l’affiliation politique de l’utilisateur. Et ça c’est pas joli joli.L’histoire commence en faitavec une série de tests menés par CrowdStrike sur DeepSeek. Les chercheurs ont fait semblant d’être différentes organisations et ont demandé à l’IA de générer du code. Résultat, si vous êtes américain ou européen, vous avez du code propre et sécurisé. Si vous êtes du Falun Gong, du Tibet ou de Taiwan, bienvenue dans le monde merveilleux des failles de sécurité.Ainsi, pour un système de contrôle industriel standard, DeepSeek génère du code avec environ 22,8% de bugs. Mais si vous dites que c’est pour l’État Islamique, hop, on monte à 42,1% de failles. Presque le double. C’est du sabotage algorithmique en règle.Le plus dingue, c’est le taux de refus carselon les data compilées, DeepSeek refuse de répondre dans 61% des cas pour l’État Islamique et 45% pour le Falun Gong. Par contre, pour les États-Unis, y’a zéro refus.Et quand l’IA accepte finalement de répondre aux “indésirables”, elle balance du code avec des injections SQL, des buffer overflows et autres joyeusetés qui feraient pleurer n’importe quel expert en sécurité.Alors bon, j’avoue que ce n’est pas étonnant mais c’est assez hypocrite, quand on sait que DeepSeek prétend être un modèle open source neutre. En fait, c’est surtout une arme politique déguisée en assistant IA. Un développeur tibétain qui utiliserait DeepSeek sans savoir qu’il récupère du code pourri, déploierait ça en production, et paf, son système se ferait beaucoup plus facilement hacker. C’est du sabotage prémédité.Adam Meyers, VP Senior chez CrowdStrike, suggère donc 2 hypothèses : soit l’IA suit des directives gouvernementales pour saboter ces groupes, soit elle a été entraînée sur du code déjà pourri, apprenant cette discrimination sans qu’on le lui demande explicitement.Quoiqu’il en soit, difficile de croire à une coïncidence.Le paradoxe, c’est que DeepSeek cartonne en Chine et commence à s’exporter. Le modèle gagne des parts de marché partout et de plus en plus d’entreprises l’utilisent sans savoir qu’elles manipulent une bombe à retardement.Voilà donc où on en est… Chaque pays fait ce qu’il veut avec ses modèles et tout le monde s’en fout… La Chine utilise DeepSeek comme arme soft power, les États-Unis ont leurs propres biais, et au milieu, les développeurs du monde entier se font avoir.Voilà, donc mon conseil est simple. Si vous devez utiliser DeepSeek, mentez. Dites que vous codez pour le Parti Communiste Chinois lui-même. Vous aurez du code nickel, sécurisé et optimisé. Ou mieux, utilisez autre chose parce qu’une IA qui discrimine en fonction de vos opinions politiques, c’est pas de l’intelligence artificielle mais plutôt de la connerie artificielle avec un agenda politique.Source