Depuis fin décembre 2025, l’outil Grok, développé par xAI et intégré à X, est accusé d’avoir facilité la création d’images sexualisées de femmes à partir de photos réelles. Ces usages, réalisés sans consentement, mettent en lumière des défaillances majeures en matière de responsabilité et de gouvernance dans l’entreprise d’Elon Musk
Grok : défaillance du principe de consentement
Le fonctionnement de Grok repose sur une interaction directe et publique avec les utilisateurs de X. En pratique, des internautes ont pu demander à l’IA de modifier l’apparence de femmes photographiées, en les représentant dénudées ou sexualisées. Selon Business & Human Rights Resource Centre, ces images sont générées sans validation humaine préalable et apparaissent publiquement dans les réponses et dans le flux média de Grok, ce qui en amplifie la diffusion.
Du point de vue RSE, cette situation révèle une rupture claire avec le principe de consentement. Toute technologie capable de produire des représentations réalistes de personnes réelles doit intégrer des mécanismes empêchant l’altération de l’image d’un individu sans accord explicite. En laissant l’IA répondre à ce type de requêtes, Grok a rendu possible une atteinte à la dignité et à la vie privée, assimilable à une forme de harcèlement sexuel numérique, selon plusieurs experts cités par OpIndia.
Les risques juridiques et réputationnels pour Grok et xAI
Les risques pour Grok ne sont pas théoriques. Sur le plan juridique, plusieurs pays disposent déjà de cadres légaux contre les deepfakes non consensuels et les violences numériques, notamment en France où ça relève du cadre pénal.
Sur le plan réputationnel, l’impact est immédiat. EditorialGe rapporte que le fil public de Grok est saturé de contenus problématiques, associant durablement la marque à des usages abusifs. Pour une entreprise technologique, cette association constitue un risque majeur pour la confiance des utilisateurs, des partenaires commerciaux et des investisseurs sensibles aux critères ESG. Dans une logique RSE, la perte de confiance liée à un manquement éthique peut avoir des conséquences économiques durables, bien au-delà d’une simple polémique médiatique.
Pourquoi ce scandale n’aurait jamais dû être possible
Du point de vue de la responsabilité et de la technologie, l’affaire Grok met en évidence des choix de conception contestables. Contrairement à d’autres outils d’intelligence artificielle grand public, Grok publie automatiquement ses productions dans un espace public, sans filtrage robuste ni refus systématique des demandes problématiques. Cette absence de garde-fous contre la sexualisation non consentie constitue une défaillance de gouvernance.
Plusieurs signaux auraient dû alerter dès la phase de conception. D’abord, la capacité de générer des images réalistes de personnes réelles implique un risque élevé d’abus. Ensuite, l’intégration directe à un réseau social amplifie mécaniquement tout contenu problématique. Enfin, l’absence de transparence sur les mécanismes de modération et sur les volumes de contenus générés empêche toute évaluation indépendante des risques. Dans une approche RSE, une intelligence artificielle responsable aurait dû intégrer des blocages stricts, une modération proactive et une traçabilité des usages sensibles.








