Une étude prétend que Facebook ne filtre pas ce qui apparaît sur notre fil, mais que c’est plutôt nous qui filtrons. Des chercheurs s’insurgent, et prétendent que leurs collègues ont sous-estimé le poids de Facebook.
Parue dans Science, l’étude avait tout ce qu’il faut pour susciter la controverse: selon ses auteurs, elle apporterait la preuve que Facebook ne nous empêche pas de voir des opinions contraires aux nôtres… et elle a été réalisée par trois chercheurs employés par Facebook.
Ceux-ci ont observé 10,1 millions d’usagers des États-Unis qui se sont identifiés comme étant de gauche ou de droite, entre juillet 2014 et janvier 2015. Leur constat: 29 % de tous les fils contiennent des opinions contraires. Chez les usagers qui se sont identifiés comme étant de droite («conservateurs»), seulement 1 lien sur 20 n’apparaît pas, contre 1 sur 13 chez ceux qui se sont identifiés de gauche.
La critique, qui a immédiatement surgi, pointe l’échantillon. Si ce nombre de 10 millions semble beaucoup, c’est relativement peu à l’échelle de Facebook. Mais plus important encore, seulement 9 % des usagers acceptent d’identifier leur option politique: sont-ils représentatifs des Facebookiens?
L’interprétation que font de ces résultats les auteurs de la recherche a aussi provoqué des grincements de dents: «Nous avons établi de façon concluante qu’en moyenne, dans le contexte de Facebook, les choix individuels comptent davantage que les algorithmes.»