Depuis que l’intelligence artificielle s’infiltre dans toutes les facettes de nos vies, une inquiétude pointe: si les machines doivent nous aider à prendre des décisions, comment s’assurer que celles-ci soient prises sur une base juste pour un groupe ou une personne?
Les chercheurs travaillant en apprentissage profond (deep learning) doivent composer désormais avec ces possibles biais des algorithmes.
Rhema Vaithianathan, chercheuse en économie de la santé et codirectrice du Centre pour l’analyse des données sociales, exposait dans une récente édition de la revue savante Nature ses préoccupations face à ces biais et comment elle entendait y remédier.
Lignes d’alerte
Tous les jours, les lignes d’alerte de la région de Pittsburgh, en Pennsylvanie, reçoivent des douzaines d’appels de personnes suspectant que des enfants sont en danger.
Les appels d’aide, qui parviennent aux centres d’appels, sont ensuite traités par des ordinateurs, capables d’analyser un immense bassin de données sensibles, dont l’histoire familiale ou le passé criminel des personnes inscrites dans leur base de données. Une échelle de risque est par la suite générée pour chaque appel, se soldant parfois par une enquête plus poussée. Plusieurs cas d’abus échappent cependant encore à ce processus.