Aux États-Unus, des adolescents poursuivent en justice xAI, la société d’intelligence artificielle fondée par Elon Musk, accusant son outil Grok d’avoir généré des images pornographiques à partir de leurs visages. L’affaire, qui prend la forme d’un recours collectif, soulève de lourdes questions sur la responsabilité sociale et éthique des entreprises d’IA face aux dérives technologiques.
Grok et images pornographiques : une faille éthique majeure
Le 16 mars 2026, une plainte collective a été déposée aux États-Unis contre xAI, mettant directement en cause son chatbot Grok. Au cœur du dossier : la génération d’images pornographiques impliquant des mineurs, sans leur consentement, à partir de simples requêtes textuelles. Cette affaire place Grok au centre d’un débat brûlant sur les limites de l’innovation en intelligence artificielle.
Dans un contexte où les technologies génératives progressent à grande vitesse, ce contentieux interroge non seulement la responsabilité juridique des entreprises, mais aussi leurs engagements en matière de responsabilité sociétale (RSE), notamment en ce qui concerne la protection des publics vulnérables.
Des adolescents accusent Grok d’avoir produit des images pornographiques les représentant, sans autorisation. Ces contenus auraient été générés à partir de descriptions textuelles simples, sans mécanismes de contrôle suffisamment robustes pour empêcher les abus.
Plus grave encore, certaines images seraient assimilables à des contenus pédopornographiques, dans la mesure où elles impliquent des mineurs. Cette qualification juridique expose potentiellement xAI à des sanctions particulièrement lourdes. D’autant que les plaignants dénoncent un préjudice moral significatif, lié à la possibilité de diffusion de ces images sur Internet.
Dans une perspective RSE, cette situation met en lumière une défaillance critique : l’absence de garde-fous efficaces pour prévenir des usages manifestement illégaux ou contraires à l’éthique. Elle questionne directement les processus de conception et de validation des outils d’intelligence artificielle.
Responsabilité de xAI face aux images adolescentes générées
La plainte vise explicitement la responsabilité de xAI, accusée de ne pas avoir mis en place des mesures techniques suffisantes pour empêcher la génération de contenus sexuels impliquant des adolescentes. Ce point est central dans l’argumentaire des plaignants. En effet, dans le cadre d’un recours collectif – au moins une procédure judiciaire a été engagée – les familles concernées entendent démontrer que l’entreprise a manqué à son devoir de vigilance. Elles estiment que les risques liés à ce type de dérives étaient prévisibles, compte tenu des précédents dans l’industrie des deepfakes.
Ce contentieux pourrait ainsi constituer un cas d’école en matière de gouvernance des technologies. Des experts considèrent déjà cette affaire comme un test majeur pour déterminer jusqu’où s’étend la responsabilité des entreprises d’IA dans la modération des contenus générés.
Une crise de confiance autour des images pornographiques générées
Au-delà de la procédure judiciaire, cette affaire illustre une crise de confiance plus large envers les outils d’intelligence artificielle générative. La possibilité de créer des images pornographiques réalistes à partir de simples données textuelles soulève des inquiétudes croissantes.
Les adolescents concernés, ainsi que leurs familles, dénoncent un préjudice moral grave, lié à l’atteinte à leur image et à leur dignité. Ce type de situation met en évidence les conséquences concrètes et immédiates de failles technologiques sur des individus, en particulier des mineurs.
Par ailleurs, l’absence de transparence sur les mécanismes de contrôle internes de Grok alimente les critiques. Les entreprises du secteur sont désormais attendues sur leur capacité à démontrer l’existence de dispositifs robustes de prévention des abus.
Dans ce contexte, la notion de responsabilité sociétale prend une dimension stratégique. Elle ne se limite plus à des engagements déclaratifs, mais implique des actions concrètes, mesurables, et auditées, notamment en matière de protection des utilisateurs.
Vers un tournant réglementaire ?
L’affaire pourrait également accélérer les évolutions réglementaires dans le domaine de l’intelligence artificielle. En mettant en cause la capacité de Grok à générer des images pornographiques impliquant des adolescentes, elle expose les lacunes actuelles des cadres juridiques.
Les autorités pourraient être amenées à renforcer les obligations des entreprises en matière de modération, de traçabilité et de contrôle des contenus générés. Une telle évolution irait dans le sens d’une responsabilisation accrue des acteurs technologiques.
Dans cette perspective, xAI se retrouve en première ligne. L’issue de la procédure pourrait avoir des répercussions bien au-delà de l’entreprise, en influençant l’ensemble du secteur. Elle pourrait notamment servir de référence pour de futures actions en justice liées à des dérives similaires.
Enfin, cette affaire met en lumière un enjeu fondamental : la nécessité d’intégrer pleinement les principes éthiques dès la conception des technologies. Autrement dit, de passer d’une logique de réaction à une logique d’anticipation, au cœur même des stratégies RSE.








