Depuis le lancement, le mois dernier, de Grokipedia par xAI — le projet d’Elon Musk présenté comme concurrent de Wikipédia — des chercheurs alertent sur la qualité et la fiabilité des sources référencées sur cette nouvelle encyclopédie générée par intelligence artificielle. Un rapport de Harold Triedman et Alexios Mantzarlis, chercheurs affiliés à Cornell Tech et consulté par l’AFP, signale la présence de milliers de références jugées « peu fiables » et une prépondérance de sources problématiques, en particulier sur des sujets politiques sensibles.
Wikipédia, créée en 2001 et maintenue par une communauté de bénévoles, repose sur des principes de vérifiabilité et de neutralité éditoriale : chaque affirmation doit pouvoir être sourcée et contestée. Grokipedia, en revanche, produit du contenu par IA et ajoute des références pour étayer ses articles. Selon l’étude, toutefois, de nombreux liens renvoient à des sites connus pour diffuser de la désinformation, des théories du complot, ou des prises de position idéologiques marquées.
Les chercheurs soulignent des exemples concrets : une page consacrée au « nombre de morts de Clinton » renvoie à InfoWars, un site qui a été largement identifié par des journalistes et des organisations de fact‑checking comme un vecteur persistant de fausses informations et de théories conspirationnistes. D’autres pages citeraient des médias d’extrême droite, des organes de presse d’État chinois et iranien, et des sites contenant des contenus xénophobes, antisémites ou anti‑musulmans. L’étude, qui a porté sur « des centaines de milliers » d’articles, met en évidence une concentration de ces références problématiques dans les rubriques politiques, mais note aussi la présence de sources promouvant la pseudoscience.
Évaluation de la fiabilité des sources citées
Il convient de distinguer plusieurs niveaux de fiabilité parmi les éléments mentionnés dans le rapport et dans l’article de l’AFP. D’abord, la provenance du signalement : Harold Triedman et Alexios Mantzarlis sont rattachés à Cornell Tech, une institution universitaire reconnue, et la méthode d’analyse — massive et algorithmique — donne une légitimité initiale à leurs conclusions. L’AFP, qui relaie le rapport, est une agence de presse internationale réputée pour ses standards journalistiques ; son rôle ici est de rendre public le travail des chercheurs, pas de valider chaque donnée individuellement.
Ensuite, les sources citées comme problématiques méritent une évaluation distincte. InfoWars est largement documenté par des organisations de fact‑checking et des journalistes indépendants comme une plateforme récurrente de désinformation ; sa présence en tant que référence nuit à la crédibilité d’un article encyclopédique. Les médias d’État (par exemple chinois ou iraniens) relèvent d’un autre registre : ils peuvent fournir des informations utiles, mais leurs lignes éditoriales sont souvent alignées sur des intérêts géopolitiques, ce qui exige prudence et mise en contexte.
Les « médias d’extrême droite » et les sites aux contenus antisémites ou anti‑musulmans cités par le rapport doivent être traités comme des sources à haut risque de partialité et d’erreurs factuelles. Enfin, les sites promouvant la pseudoscience ou les théories du complot sont généralement considérés comme non fiables pour étayer des affirmations factuelles.
Globalement, l’évaluation montre que la simple présence d’une référence n’est pas une garantie de vérité : la nature, la réputation et la transparence éditoriale de la source comptent.
Méthodologie, limites et enjeux
Le rapport a l’avantage de la volumétrie — analyser « des centaines de milliers » d’articles permet d’identifier des tendances — mais plusieurs limites méritent d’être rappelées. L’étude dépend des critères de classification des sources (quels sites ont été inclus dans la liste « problématique » ?), de la qualité de l’algorithme de reconnaissance des références, et du moment où les pages ont été capturées (une plateforme récente peut évoluer rapidement). Par ailleurs, une IA peut générer des citations incorrectes ou « halluciner » des sources, phénomène documenté dans d’autres systèmes de génération de texte.
Les implications sont concrètes : si une encyclopédie automatisée renforce des informations erronées ou partiales, elle peut accélérer la diffusion de désinformation à grande échelle. Le problème est d’autant plus aigu sur des sujets politiques, où la véracité des données influe sur le débat public.
Que faire ? La correction passe par plus de transparence (liste des sources et règles de sélection), par l’intégration d’une vérification humaine systématique pour les pages sensibles, et par des mécanismes de rétroaction permettant aux utilisateurs et aux experts de signaler et de corriger les erreurs.
xAI et Elon Musk ont réagi succinctement : l’entreprise a publié une réponse automatique accusant les « médias traditionnels » de mentir, et Musk a défendu l’objectif de Grok/Grokipedia comme recherche de « la vérité ». Ces déclarations doivent être lues comme des positions publiques, mais n’exonèrent pas la plateforme de la nécessité d’un contrôle externe et d’une gouvernance transparente.
En l’état, Grokipedia soulève des questions importantes sur la responsabilité éditoriale des contenus générés par IA. Pour les lecteurs, la règle demeure : vérifier les informations sur plusieurs sources reconnues et faire preuve de vigilance avant de prendre pour acquis ce qui est publié, surtout sur des sujets sensibles.


