La France insoumise (LFI) se retrouve à nouveau au cœur d'une polémique après la diffusion d'un visuel mettant en scène l'animateur Cyril Hanouna. Ce visuel, largement condamné pour son caractère antisémite, a été élaboré à l’aide d’un logiciel d’intelligence artificielle, le logiciel Grok, développé par la start-up xAI dirigée par Elon Musk.
Le député et cadre insoumis Paul Vannier a révélé cette information vendredi dans l’émission C à vous sur France 5. «Il a été produit en recourant à l’intelligence artificielle, au logiciel Grok, celui d’Elon Musk», a-t-il déclaré. Vannier a reconnu une erreur dans l'utilisation de cet outil, soulignant que LFI avait pour règle de ne jamais recourir à ces logiciels en raison de leur contenu potentiellement «nauséabond».
L'image controversée et ses conséquences
L’image en question, diffusée mardi sur les réseaux sociaux par LFI pour appeler à des manifestations contre le racisme, a été rapidement retirée face au tollé suscité. Elle montrait le visage de Cyril Hanouna, d’origine juive tunisienne, en noir et blanc, avec une expression agressive. De nombreux responsables politiques ont vu dans cette image une référence à l’iconographie antisémite des années 1930 et de l’Allemagne nazie.
Réactions et condamnations
Paul Vannier a reconnu une «défaillance» dans la publication de ce visuel, mais a refusé de désigner un responsable individuel. «Je crois que nous aurions dû empêcher cette publication. Ce visuel n’aurait pas dû être mis en circulation», a-t-il déclaré. Les condamnations sont venues de toutes parts, y compris de Marine Le Pen, qui s’est dite «scandalisée» par les références antisémites. Cyril Hanouna a également annoncé son intention de poursuivre LFI en justice.
L'intelligence artificielle en question
À plusieurs reprises durant l’interview, Vannier a pointé du doigt l’outil d’IA lié au réseau social X du milliardaire Elon Musk, devenu proche conseiller du président républicain Donald Trump. «C’est peut-être une question intéressante d’ailleurs de se demander pourquoi l’intelligence artificielle d’Elon Musk conduit à ce type d’image», a-t-il déclaré.
Vannier a également déploré des «indignations à géométrie variable», accusant les critiques de ne pas réagir de la même manière face aux actions d’Elon Musk. «On bondit sur la France insoumise, mais (...) quand Elon Musk, il y a quelque temps encore, pratiquait le salut nazi, beaucoup bégayaient pour qualifier ce geste», a-t-il accusé.
Mesures prises pour l'avenir
Paul Vannier a assuré que des mesures avaient été prises pour éviter une situation semblable à l’avenir. «Des mesures» ont été mises en place pour s’assurer que de tels incidents ne se reproduisent pas. Vannier a également rappelé l’importance de lutter contre l’antisémitisme, en soulignant que c’est l’extrême droite qui fait vivre ce fléau dans le pays.
Cette affaire met en lumière les défis éthiques et techniques liés à l’utilisation de l’intelligence artificielle dans la création de contenu, ainsi que les responsabilités des acteurs politiques dans la diffusion de messages sensibles.