Des chercheurs en intelligence artificielle craignent une catastrophe

intelligence artificielle
Selon un sondage, plus d’un tiers des chercheurs en intelligence artificielle croient que cette technologie pourrait causer une catastrophe mondiale. Photo: Pixabay
Partagez
Tweetez
Envoyez

Plus d’un tiers des chercheurs en intelligence artificielle (IA) ne sont pas d’une nature optimiste. Ils ont dit croire que l’IA pourrait causer une catastrophe mondiale de même ampleur qu’une guerre nucléaire.

Cette réponse provient d’un sondage mené en mai et juin de cette année auprès de 327 de ces chercheurs, choisis parmi ceux qui ont cosigné ces dernières années une ou des recherches sur le traitement automatique du langage (natural language processing), un domaine qui a été le théâtre d’avancées notables.

Guerre nucléaire: métaphore?

L’expression «de même ampleur qu’une guerre nucléaire» peut être vue comme une métaphore… Mais peut aussi être prise au premier degré.

Ces chercheurs entrevoient des applications militaires à l’IA… Et du coup, la possibilité qu’avec ces récentes avancées, l’IA joue un rôle plus important dans la prise de décision.

«Il existe des scénarios plausibles qui pourraient nous conduire jusque-là», commente dans le New Scientist le chercheur en sécurité Paul Scharre. «Mais ça nécessiterait que des gens fassent des choses vraiment dangereuses avec les usages militaires de l’IA.»

l-express.ca remercie ses partenaires. En devenir.
2001_A_Space_Odyssey
L’oeil de HAL 9000 dans 2001, l’Odyssée de l’espace (1968), l’intelligence artificielle qui gère un vaisseau spatial.

Armes guidées et surveillance de masse

Dans l’enquête, réalisée par une équipe du Centre de l’Université de New York pour les données scientifiques, et dont les résultats ont été prépubliés le 26 août, le nombre de chercheurs inquiets était plus élevé encore parmi les femmes (46%) et les membres des minorités visibles (53%).

Sans aller jusqu’à une guerre nucléaire, certains des répondants ont dit qu’ils auraient été d’accord avec la prémisse selon laquelle l’IA pose de sérieux risques, si le scénario évoqué avait été moins extrême.

On évoque par exemple dans l’enquête les risques posés par des armes guidées par l’intelligence artificielle ou ceux posés par la surveillance de masse.

intelligence artificielle
Une scène du film War Games (1983) dans lequel une intelligence artificielle joue à la guerre nucléaire.

Intelligence artificielle bénéfique

Ces chercheurs n’ont évidemment pas sorti ces inquiétudes de leurs seules recherches. Les risques de dérives de l’IA sont évoqués depuis plusieurs années, par exemple en matière de discrimination.

Mais les risques qui mettent en jeu l’avenir même de l’humanité ont fait l’objet de réflexions plus poussées. Par exemple dans le rapport de 2018 d’un groupe de penseurs aux États-Unis. Ou dans le livre d’un chercheur de l’Université Oxford en 2014.

l-express.ca remercie ses partenaires. En devenir.

Des milliers de personnes ont signé une lettre ouverte de l’informaticien britannique Stuart Russell, en 2015, qui en appelait à «des recherches élargies visant à s’assurer que les systèmes de plus en plus avancés d’IA soient robustes et bénéfiques».

À l’inverse, ceux qui ne cèdent pas au pessimisme évoquent l’exemple de la voiture autonome, qui est encore loin de pouvoir prendre des décisions éclairées en toutes circonstances, en dépit des sommes énormes qui y ont été investies.

intelligence artificielle
Une scène de l’un des six films de la série Terminator (de 1984 à 2018), dans lesquels une intelligence artificielle livre une guerre aux humains.

Ces machines qui «apprennent»

Si, dans les années 2000 et 2010, ces réflexions portaient sur les capacités théoriques d’une «super-intelligence», elles sont devenues plus ancrées dans le réel avec les concepts récents d’apprentissage automatique (machine learning) et de traitement automatique du langage.

Ces concepts ont ouvert de nouvelles perspectives sur ce que nous pouvons faire avec l’IA et ce que nous ignorons encore de son potentiel.

Des juristes s’interrogent aussi. Le comité sur l’intelligence artificielle du Conseil de l’Europe a notamment statué sur l’importance d’une règlementation qui laisse la prise de décision aux humains «et non à des modèles mathématiques». Mais reste à écrire de telles lois…

Partagez
Tweetez
Envoyez
l-express.ca remercie ses partenaires. En devenir.

Pour la meilleur expérience sur ce site, veuillez activer Javascript dans votre navigateur