You are currently viewing Un algorithme teste la crédibilité de Wikipedia…

Un algorithme teste la crédibilité de Wikipedia…

  • Auteur/autrice de la publication :
  • Temps de lecture :4 min de lecture
  • Post category:Internet

Tout le monde connait Wikipédia. En effet, quand on fait des recherches sur internet, on tombe forcément sur ce site dans les premiers résultats des moteurs de recherche. Très pratique car ce site est une vraie mine d’information, certaines personnes doutent de sa crédibilité.

Chacun de nous peut rédiger un article sur Wikipedia. Il n’est pas nécessaire d’avoir des cours particuliers, ni d’avoir un don spécial pour écrire. Modifier un sujet ancien ou ajouter de l’information à un autre déjà créé est possible mais qui analyse cette information ? Comment savons-nous si ce que nous lisons sur la plateforme est correct ou pas ?

Avec plus de 37 millions d’articles dans plus de 284 langues, analyser ce qui a été rédigé par des millions de volontaires du monde entier serait un travail de titan. Surtout si la création de ces articles peut très bien être automatisée par des machines et non rédiger par des êtres humains.

Une analyse très intéressante

Des scientifiques de l’Université des télécommunications de Nanjing en Chine, inspirés par le manque de confiance de cette encyclopédie, ont créé un algorithme qui facilite et résout la véracité de l’information rédigée sur la plateforme.

L’algorithme a dépassé l’analyse d’une personne de 23%

L’encyclopédie collaborative la plus grande du monde s’est vue impliquée dans plus d’une polémique sur la corruption et l’achat de ses articles. Suite à cela, les scientifiques ont élaboré un système pour trouver les textes faux.

Pour son développement, ils utilisèrent l’inférence bayésienne, un système qui est utilisé pour consulter les courriers électroniques et les classifier selon leur contenu, déterminant ainsi la probabilité que ce soit du spam par exemple.

Ce réseau, à travers différents variables, permet d’analyser les articles de Wikipedia procurant ainsi une distribution de la qualité de chaque thème pour que les articles puissent être classifiés.

Les scientifiques ont testé leur algorithme sur des centaines de pages de Wikipedia testant son analyse avec celle d’un être humain. Finalement, le travail de la personne a été dépassé de 23% pour la classification des articles.

Une formule qui aiderait les éditeurs et les utilisateurs

Si l’information analysée serait donnée pour fausse, elle serait « marquée » pour que les éditeurs puissent la corriger en plus d’aviser les utilisateurs de la pauvre qualité du texte.

Au contraire, si l’information était classifiée par l’algorithme avec plus de crédibilité, on informerait les utilisateurs pour que l’article soit modifié le moins possible et ainsi éviter des erreurs qui pourraient se faire dans le futur.

La page de Wikipedia apparait toujours dans les premiers résultats de recherche y compris les universités utilisent leurs articles comme matériel didactique. Cependant parfois, sa crédibilité peut être faible compte tenu des standards requis pour un devoir scolaire. En d’autres termes, même si beaucoup d’infos sur Wikipédia sont vraies, il faut quand même prendre des pincettes avec certaines infos. N’hésitez pas à recouper les informations trouvées sur Wikipédia avec d’autres sites afin d’être sûr des résultats. Dans tous les cas, cette analyse est plutôt intéressante et permettrait de vérifier plus en détails les articles publiés sur Wikipédia.