L’information par algorithme: un échec

Google et Facebook devraient être soumis aux mêmes lois que les médias

Mémorial improvisé à Las Vegas, non loin de l'hôtel-casino Mandalay Bay d'où un homme a tué 58 personnes et en a blessé 489 autres en mitraillant la foule d'un concert de musique country le 1er octobre. (Capture d'écran d'un reportage de Vox)
Partagez
Tweetez
Envoyez

Publié 12/10/2017 par Agence Science-Presse

Dans la foulée de la tuerie de Las Vegas, Google et Facebook se sont retrouvés sur la sellette avec des histoires fausses rédigées par des complotistes et qui ont pourtant grimpé parmi les «Top stories» de l’un et parmi les «tendances» de l’autre.

Ce sont des algorithmes qui, une fois de plus, ont fait ces «choix» douteux. Mais chaque nouvelle erreur «technique» de ce genre place ces géants d’Internet un peu plus près d’une décision à prendre: les gouvernements devraient-ils les traiter comme des plateformes anonymes ou comme des médias, avec les responsabilités que ce statut implique?

«Ces compagnies sont les plus puissants fournisseurs d’informations que le monde ait jamais connu, mais refusent de reconnaître leurs responsabilités pour leur rôle actif dans l’affaiblissement de la qualité de l’information qui atteint le public», résume le journaliste Alexis Madrigal dans une sévère critique publiée le 2 octobre par le magazine The Atlantic.

Imaginez, demande-t-il, comment nous aurions réagi si c’était un journal qui avait commis pareille gaffe. Selon les excuses fournies par Google, le message du site complotiste 4Chan a été «pompé» par l’algorithme de Google News parce qu’il était récent et que peu d’autres textes mentionnaient la même (fausse) information sur un (faux) suspect de la tuerie.

Publicité

Chez Facebook, un groupe tout aussi peu crédible a eu droit — brièvement — aux honneurs de l’algorithme pour la seule raison qu’il était passé de 0 à 5000 abonnés dans les heures ayant suivi la tuerie.

«Les machines ont fait la preuve qu’elles ne sont pas taillées» pour gérer de telles situations, conclut Madrigal — et c’est d’autant plus grave qu’en psychologie, la recherche des dernières années a démontré qu’une nouvelle qui obtient pareille visibilité devient très difficile à effacer de l’esprit des gens, même lorsqu’ils apprennent qu’elle était fausse.

Deux semaines plus tôt, ce sont des journalistes d’enquête qui avaient embarrassé la direction de Facebook, en démontrant qu’il était facile d’y acheter des publicités ciblant avec précision des abonnés antisémites.

Auteur

Partagez
Tweetez
Envoyez
Publicité

Pour la meilleur expérience sur ce site, veuillez activer Javascript dans votre navigateur