L’intelligence artificielle à l’école de conduite

Quatre défis pour les véhicules autinomes

Il y a trois ans déjà survenait le premier accident mortel avec une voiture semi-autonome, en Floride. Ce qui ne décourage pas les experts du transport intelligent.
Partagez
Tweetez
Envoyez

Publié 25/05/2019 par Isabelle Burgun

Il y a trois ans déjà survenait le premier accident mortel avec une voiture semi-autonome, en Floride. Ce qui ne décourage pas les experts du transport intelligent qui veulent faire modifier nos codes de la sécurité routière pour y faire entrer la définition de véhicule autonome.

L’été prochain, un véhicule autonome circulera à faible vitesse à Candiac (rive sud de Montréal) afin de vérifier le niveau de sécurité sur de vraies routes.

Plus sécuritaires

Le Pr Nicolas Saunier du Département des génies civil, géologique et des mines de l’École Polytechnique s’attend à des résultats positifs parce qu’à ses yeux, les véhicules autonomes sont tout simplement plus sécuritaires que ceux conduits par des humains. «95% des accidents impliquent des facteurs humains», rappelait le chercheur au récent forum organisé par l’Institut de valorisation des données (IVADO), MobiliT.AI.

Houari Sahraoui, professeur au Département d’informatique et de recherche opérationnelle de l’Université de Montréal, va dans le même sens. «Quand tu regardes les conditions de la SAAQ pour obtenir un permis, un simple examen, ce n’est pas assez, car il faut aussi prendre en compte la santé du conducteur.»

L’intelligence artificielle devra-t-elle passer un permis de conduire? «En fait, le problème doit être pensé comme un continuum avec des mises à jour (technologiques et régulation), comme pour les téléphones», ajoute l’expert.

Publicité

Acceptabilité sociale

Ce n’est pas juste une question de mises à jour, il y a également une acceptabilité sociale encore à bâtir. «Les gens pensent souvent que seule l’intelligence naturelle — lire, celle de l’humain — est capable de s’adapter. Il faut donc montrer que l’IA peut le faire, et il y a aussi le côté des politiques qui veulent des garanties», rappelle le stratège en IA et directeur du bureau montréalais de l’Institut de technologie IRT Saint Exupéry, Guillaume Gaudron.

À l’aide d’un simulateur de conduite, un peu comme les pilotes d’avion, on tentera de mesurer ce qui pourrait se produire dans de multiples situations problématiques. Mais ce n’est pas une mince tâche. Quelques pixels de moins ou une altération de données constituent un «bruit» susceptible de modifier la situation et son analyse.

«Les images de ciel bleu et d’une voiture bleue peuvent tromper la machine. Il importe donc de tester aussi le système avec des exemples trompeurs et proches de la réalité pour qu’il soit susceptible de bien identifier la zone de danger», explique le directeur du Centre de données massives de l’Université Laval, François Laviolette.

Bâtir de meilleurs algorithmes

Cela complique l’approche, car il ne faut pas seulement prendre en compte les bons comportements à favoriser, mais aussi les mauvais afin d’élargir le spectre des situations possibles. Pour cela, il faut s’assurer de mieux comprendre ce qu’est le risque pour bâtir de meilleurs algorithmes en intégrant les biais et les contre-exemples.

Pour augmenter la confiance du public à l’égard de l’IA, il faut intégrer le contexte dans lequel les évènements surviennent, explique le chercheur de la compagnie Thales, Freddy Lecue. Afin de trouver quelles sont les variables importantes — par exemple la pluie ou la brume — susceptibles de modifier l’environnement.

Publicité

Pas de risque zéro

Enfin, le risque zéro n’existe pas. Il est nécessaire de prouver que le système a fait de son mieux. Dans les chemins de fer français, il existe un niveau à respecter. «Le système de vision artificielle doit être ‘globalement équivalent’ à l’humain. On peut tolérer que l’IA fasse des erreurs, mais cela doit être minimal et nous devons être capable de les corriger», note le chef de division IA de la SNCF, Laurent Gardes.

«La certification d’IA ne doit pas être une liste de points à remplir, mais il nous faut plutôt repenser ce qu’est la confiance et la sécurité minimale que nous désirons offrir ou que l’on exigera de nous», relève le chercheur de IRT Saint Exupéry, Gregory Flandin.

Il est même temps de s’entendre sur le vocabulaire. «On a longtemps pensé que l’autonomie, c’est se passer des humains, mais on réalise aujourd’hui qu’il s’agit plus d’interactions entre les humains et les machines. La définition change et celle d’aujourd’hui ne sera pas celle de demain», décrit Mike McNair, responsable de l’innovation chez Bell Flight.

Quatre défis sur la route

1) Rendre la route coopérative avec des infrastructures et des signaux adaptés, comme des marquages spécifiques au sol et un échange d’informations continu entre les feux de signalisation et le véhicule, pourrait être une voie pour sortir de l’ornière du manque de confiance.

Publicité

Adapter la route — que l’on nomme en France route de 5e génération — pourrait même obliger à repenser la manière dont on l’utilise.

«Une autoroute pleine de voitures, cela reste une autoroute avec des voitures et c’est sans doute le temps d’imaginer de faire les choses autrement», relève le professeur titulaire au Département de mathématiques et de génie industriel de Polytechnique Montréal, Martin Trépanier.

2) Des conditions extrêmes et dégradées posent des problèmes à la voiture autonome — un peu comme notre réseau routier imparfait et ses nombreux nids-de-poule. «Cela ne sera pas possible pour le véhicule de circuler dans ces conditions, un peu comme un avion lors de conditions météo problématiques», ajoute Martin Trépanier.

3) Un autre enjeu sera d’améliorer la communication entre les usagers, les conducteurs et les automobiles automatisées, au moyen de meilleures caméras et de senseurs. «Les voitures doivent comprendre les intentions des humains et clairement signaler ce qu’elles détectent des autres usagers de la route et de leurs intentions», explique Nicolas Saunier, de Polytechnique.

4) Le monde virtuel des jeux vidéo pourrait aider l’IA à apprendre. C’est du moins ce que pense Yves Jacquier directeur d’Ubisoft La Forge. «Nos simulations ne sont pas parfaites, mais peuvent aider à comprendre comment développer des systèmes plus fiables de conduite.»

Publicité

La compagnie ouvre dans ce contexte ses portes au monde académique avec La Forge, un studio où collaborent les employés d’Ubisoft et les universitaires, avec l’expertise et les nombreuses données accumulées dans le monde du jeu.

Auteur

  • Isabelle Burgun

    Journaliste à l'Agence Science-Presse, média indépendant, à but non lucratif, basé à Montréal. La seule agence de presse scientifique au Canada et la seule de toute la francophonie qui s'adresse aux grands médias plutôt qu'aux entreprises.

Partagez
Tweetez
Envoyez
Publicité

Pour la meilleur expérience sur ce site, veuillez activer Javascript dans votre navigateur