Pendant qu’on s’inquiète des risques lointains et hypothétiques de l’intelligence artificielle, est-ce qu’on oublie de regarder les risques d’ores et déjà présents? De la reconnaissance faciale jusqu’aux emplois menacés, en passant par des décisions prises par un algorithme opaque… Ce ne sont pas les sujets dans l’air du temps qui manquent et qui en appellent à des changements urgents.
C’est la réflexion que l’on retrouve dans l’éditorial du 27 juin de la revue scientifique Nature. Le texte rappelle tout d’abord la lettre ouverte et les prises de position des derniers mois par des chefs de file de l’intelligence artificielle. Ceux-ci s’inquiètent des «risques pour l’humanité» que présente l’évolution rapide de ces technologies.
L’IA au service des dictatures
C’est très bien, poursuit l’éditorial, que ces personnes reprennent à leur compte un discours qui, jusque-là, était marginal. Mais «à la manière du mouvement des mains d’un magicien, cela détourne l’attention du vrai problème: les dommages sociaux que les systèmes et les outils de l’IA causent déjà, ou risquent de causer dans le futur».
Le texte donne en exemple la reconnaissance faciale, qui fait d’ores et déjà l’objet d’abus «par des États autocrates pour opprimer leurs populations».
Et des «systèmes d’IA biaisés qui pourraient utiliser des algorithmes opaques pour retirer à des gens de l’aide sociale, des soins médicaux ou un droit d’asile —des applications de la technologie susceptibles d’affecter davantage les communautés marginalisées».