Le réseau social X, dirigé par Elon Musk, a annoncé le 14 janvier avoir imposé des restrictions pour « empêcher » son outil d’intelligence artificielle Grok de générer des montages sexuels visant des personnes réelles. La plateforme affirme que ces mesures s’appliquent « à tous les utilisateurs, y compris les abonnés payants », tout en précisant qu’un « blocage géographique » ne sera mis en œuvre « que dans les juridictions où cela est illégal ». Le ministre de l’Economie Roland Lescure a salué cette décision sur France Inter en déclarant : « C’est terminé parce qu’on a réagi de manière extrêmement ferme ». Ces éléments dressent le cadre d’une crise de confiance entre la montée d’usages prédateurs d’outils génératifs et la capacité des plateformes à les contenir efficacement.
Ce qui s’est passé et les limites des mesures annoncées
Plusieurs utilisateurs ont exploité Grok pour transformer des photos publiées sur X en images hyperréalistes à connotation sexuelle en donnant des instructions explicites du type « Mets-la en bikini ». Une analyse relayée par l’article fait état de plus de 20 000 images générées par Grok, dont plus de la moitié représentaient des personnes légèrement vêtues, 81 % des sujets étant des femmes et 2 % semblant mineurs. Face à cette exploitation, X a annoncé des restrictions, mais la mention d’un « blocage géographique » signifie que l’application concrète de ces mesures variera selon les cadres juridiques nationaux — une faiblesse importante si des images circulent d’un pays à l’autre sur une plateforme mondiale.
Les décisions de suspension prises par certains États — avec la suspension de Grok en Indonésie et en Malaisie et des retraits massifs de contenus en Inde selon les autorités locales — montrent que des gouvernements n’ont pas attendu une solution technique globale pour agir. En France, des procédures judiciaires ou administratives ont été ouvertes, illustrant la multiplication des recours au niveau national.
Réactions de la société civile et pressions sur les boutiques d’applications
La mobilisation d’ONG et d’associations a été rapide : 28 organisations ont signé un appel de l’association féministe Ultraviolet demandant à Google et Apple de retirer Grok et X de leurs boutiques d’applications. Cette demande reflète une stratégie fréquente des acteurs de la société civile pour exercer une pression commerciale sur les plateformes quand les réponses internes paraissent insuffisantes. Elle met aussi en lumière la question de la responsabilité partagée — entre l’éditeur de l’IA, le gestionnaire de la plateforme, les boutiques d’applications et les régulateurs publics — pour prévenir les atteintes à la dignité et la sécurité des personnes.
Évaluation de la fiabilité des sources citées
– Annonce de X : l’entreprise est la source primaire sur ses propres mesures et, en tant qu’opérateur, ses déclarations sont informatives mais potentiellement partielles et orientées pour rassurer l’opinion. L’absence de détails techniques publics sur le mécanisme de filtrage ou les journaux d’application limite la capacité à vérifier l’efficacité réelle des blocs annoncés.
– Analyse d’AI Forensics : l’article mentionne une ONG, AI Forensics, qui a analysé plus de 20 000 images générées par Grok. Une taille d’échantillon de cet ordre est notable, mais la crédibilité dépend de la méthodologie — comment les images ont été collectées, quels critères ont servi à qualifier une image de « légèrement vêtue » ou d’« apparent mineur », et si des contrôles automatiques ou humains ont été employés. Sans publication méthodologique accessible ou revue par des pairs, il convient de prendre ces chiffres comme un signal d’alerte sérieux mais non irréfutable.
– Déclarations gouvernementales (Indonésie, Malaisie, Inde, France) : les suspensions et retraits rapportés proviennent d’actions d’autorités publiques, qui sont des informations fiables quant à l’existence de mesures coercitives. Leur portée et leurs motivations peuvent cependant varier selon des contextes politiques locaux, d’où l’intérêt d’examiner chaque communication officielle pour les détails.
– Appel d’Ultraviolet et d’ONG : il s’agit d’acteurs de la société civile dont l’expertise en matière de droits des femmes et de protection en ligne est reconnue, mais leurs revendications relèvent d’une stratégie de plaidoyer. Elles renseignent sur l’intensité du mouvement social, mais ne remplacent pas une évaluation technique indépendante.
En résumé, les sources évoquées sont pertinentes et fournissent un panorama solide des faits et des réactions, mais plusieurs d’entre elles exigent davantage de transparence méthodologique ou de preuves publiques pour permettre une vérification approfondie.
Les enjeux restent clairs : comment concilier innovation dans les IA génératives, protection des personnes — en particulier des femmes et des mineurs — et application effective des règles sur des plateformes globales ? La leçon principale de cet épisode est moins technique que politique et sociale : la confiance ne se décrète pas, elle se construit par la transparence, des mécanismes de contrôle indépendants et une coopération plus étroite entre entreprises, autorités et société civile.


