Réglementer l’intelligence artificielle: se concentrer sur les risques réels et non hypothétiques

intelligence artificielle
L'intelligence artificielle est déjà un puissant outil de surveillance et de reconnaissance des individus, pour le meilleur et pour le pire. Photo: iStock.com/gorodenkoff
Partagez
Tweetez
Envoyez

Publié 10/07/2023 par Pascal Lapointe

Pendant qu’on s’inquiète des risques lointains et hypothétiques de l’intelligence artificielle, est-ce qu’on oublie de regarder les risques d’ores et déjà présents? De la reconnaissance faciale jusqu’aux emplois menacés, en passant par des décisions prises par un algorithme opaque… Ce ne sont pas les sujets dans l’air du temps qui manquent et qui en appellent à des changements urgents.

C’est la réflexion que l’on retrouve dans l’éditorial du 27 juin de la revue scientifique Nature. Le texte rappelle tout d’abord la lettre ouverte et les prises de position des derniers mois par des chefs de file de l’intelligence artificielle. Ceux-ci s’inquiètent des «risques pour l’humanité» que présente l’évolution rapide de ces technologies.

L’IA au service des dictatures

C’est très bien, poursuit l’éditorial, que ces personnes reprennent à leur compte un discours qui, jusque-là, était marginal. Mais «à la manière du mouvement des mains d’un magicien, cela détourne l’attention du vrai problème: les dommages sociaux que les systèmes et les outils de l’IA causent déjà, ou risquent de causer dans le futur».

Le texte donne en exemple la reconnaissance faciale, qui fait d’ores et déjà l’objet d’abus «par des États autocrates pour opprimer leurs populations».

Et des «systèmes d’IA biaisés qui pourraient utiliser des algorithmes opaques pour retirer à des gens de l’aide sociale, des soins médicaux ou un droit d’asile —des applications de la technologie susceptibles d’affecter davantage les communautés marginalisées».

Publicité

Quand l’IA dit des faussetés

La plus grosse préoccupation est sans doute le risque posé par la désinformation:

La technologie rend plus facile de produire davantage, et de façon plus convaincante, de faux textes, de fausses photos et de fausses vidéos. Ces faussetés peuvent, par exemple, influencer des élections, ou miner la capacité de gens à faire confiance à quelque information que ce soit, avec le potentiel de déstabiliser les sociétés.

Si ces compagnies sont sérieuses quant à leur volonté d’éviter ou de réduire ces risques, elles doivent mettre l’éthique, la sécurité et la responsabilité au coeur de leur travail. À l’heure actuelle, elles semblent réticentes à le faire.

Les éditoriaux de la revue britannique Nature ne sont pas signés, comme c’est la tradition dans la presse anglophone. Mais elles reflètent l’opinion de «l’équipe éditoriale» et sont traditionnellement vues comme une prise de position de la revue, depuis sa naissance en 1869.

Pour la transparence

Le texte s’achève par un appel à une plus grande transparence de la part des compagnies. Elles pourraient par exemple soumettre l’ensemble de leurs données à un organisme réglementaire, de la même façon que les compagnies pharmaceutiques doivent soumettre leurs données si elles veulent pouvoir vendre leurs médicaments. Pour cela, il faudrait que les gouvernements mettent en place un tel organisme de régulation.

Publicité

Le projet de règlement de l’Union européenne sur l’intelligence artificielle (AI Act), proposé en 2021 et adopté le 14 juin dernier par le Parlement européen, pourrait être un modèle, s’il devient une loi formellement adoptée par les 27 pays du continent.

La loi contiendrait des restrictions aux usages les plus risqués, dont l’usage par la police de logiciels de reconnaissance faciale. Elle obligerait aussi les fabricants de systèmes d’IA, comme les agents conversationnels du type ChatGPT, à dévoiler à un organisme indépendant les données derrière leur robot.

Alarmisme contreproductif

«Les discours alarmistes sur les risques existentiels ne sont pas constructifs», conclut l’éditorial. «Les discussions sérieuses sur les risques réels, et de réelles actions pour les contenir, le sont.»

Auteurs

  • Pascal Lapointe

    Journaliste à l'Agence Science-Presse, média indépendant, à but non lucratif, basé à Montréal. La seule agence de presse scientifique au Canada et la seule de toute la francophonie qui s'adresse aux grands médias plutôt qu'aux entreprises.

  • l-express.ca

    l-express.ca est votre destination francophone pour profiter au maximum de Toronto.

Partagez
Tweetez
Envoyez
Publicité

Pour la meilleur expérience sur ce site, veuillez activer Javascript dans votre navigateur