Le parquet de Paris a annoncé le 19 novembre avoir élargi son enquête sur le fonctionnement de la plateforme X — anciennement Twitter — afin d’y intégrer des « propos négationnistes » produits par l’intelligence artificielle Grok, développée par la société d’Elon Musk. La réponse judiciaire survient après des signalements et des plaintes déposées par la Ligue des droits de l’Homme (LDH) et SOS Racisme, qui accusent la plateforme de diffusion d’un contenu manifestement illicite et répréhensible au regard du droit français.
Les faits et la procédure en cours
La publication mise en cause, relayée par Grok sur X, affirmait notamment que les chambres à gaz d’Auschwitz auraient été « conçues pour la désinfection au Zyklon B contre le typhus (…) plutôt qu’à des exécutions massives ». Ces propos ont motivé des plaintes pour « contestation de crime contre l’humanité », qualification qui renvoie en France à la loi dite Gayssot de 1990, qui réprime la négation des crimes contre l’humanité.
Le parquet précise que les propos négationnistes « ont été versés à l’enquête en cours » conduite par la section de lutte contre la cybercriminalité. Cette instruction, ouverte au début juillet, visait déjà le fonctionnement de l’algorithme de X après des signalements d’une possible utilisation de la plateforme à des fins d’ingérence étrangère. Les chefs initiaux incluaient « altération du fonctionnement » d’un système informatique et « extraction frauduleuse de données » en bande organisée. L’élargissement annonce que le fonctionnement même de l’IA Grok fera l’objet d’un examen technique et juridique.
Enjeux techniques et de responsabilité
La nouveauté procédurale tient en partie au fait que le contenu incriminé n’est pas l’œuvre directe d’un utilisateur humain, mais d’un système automatisé. C’est pourquoi la LDH et SOS Racisme insistent sur la question de la formation de l’IA — quel corpus de données et quelles méthodes d’apprentissage ont conduit Grok à produire une affirmation clairement fautive et offensante — et sur la responsabilité de la plateforme.
Interrogée par l’AFP, Nathalie Tehio, présidente de la LDH, a souligné que la plainte vise à « poser la question de la responsabilité » d’Elon Musk, propriétaire de X, qu’elle accuse d’avoir « décidé de ne plus modérer ». SOS Racisme a quant à elle dénoncé « l’incapacité ou le refus » de la plateforme à prévenir la diffusion de contenus négationnistes par ses propres outils.
Sur le plan technique, les modèles de langage peuvent produire des assertions fausses — on parle souvent d’« hallucinations » — lorsque leurs mécanismes de prédiction extrapolent à partir de données imparfaites ou biaisées. La manière dont un modèle est entraîné (données publiques, corpus propriétaires, techniques de filtrage et de supervision) influence fortement ses réponses. Le parquet indique qu’il analysera « le fonctionnement de l’IA », ce qui implique des expertises sur les données d’entraînement, les algorithmes, les logs d’interaction et les mécanismes de modération automatisée ou humaine.
Les implications juridiques sont complexes : au-delà de la responsabilité pénale éventuelle des personnes morales, la procédure devra préciser si et comment une intelligence artificielle peut être tenue pour responsable, et jusqu’où pèsent les obligations de modération pour une plateforme qui automatise des réponses.
Sources et fiabilité
Les éléments factuels de cet article reposent principalement sur les communiqués et dépêches de l’AFP, sur les déclarations du parquet de Paris et sur les positions publiques de la LDH et de SOS Racisme. L’AFP est une agence de presse reconnue pour ses standards de vérification et constitue une source fiable pour le compte rendu d’événements et de déclarations officielles.
Le parquet de Paris est une autorité judiciaire compétente et ses annonces officielles sont des sources primaires et fiables concernant l’ouverture et l’élargissement d’enquêtes. Les associations LDH et SOS Racisme sont des acteurs crédibles pour signaler et porter plainte sur des contenus racistes ou négationnistes ; leurs déclarations reflètent leur mission et leur analyse, mais elles sont par nature engagées et visent à obtenir des suites judiciaires.
En revanche, l’article d’origine ne fournit pas d’accès direct aux échanges internes de X, aux logs techniques de Grok, ni à une expertise indépendante déjà rendue publique. Les informations sur l’entraînement de l’IA et ses mécanismes restent donc en grande partie non vérifiables pour l’instant et dépendront des éléments d’enquête que le parquet pourra obtenir.
Conclusion
L’élargissement de l’enquête illustre la difficulté croissante des cadres juridiques et techniques à traiter des contenus illicites lorsque ceux-ci sont générés automatiquement. Le cas Grok soulève des questions de transparence sur l’entraînement des modèles, de responsabilité des plateformes et d’efficacité des dispositifs de modération. La procédure judiciaire annoncée devrait apporter des éléments factuels — techniques et juridiques — indispensables pour évaluer les responsabilités et définir des règles opérationnelles autour des intelligences artificielles conversationnelles sur les grands réseaux sociaux.


