Google crée un comité d’éthique pour son intelligence artificielle

Google Deepmind, la filiale d’Alphabet dédiée à l’intelligence artificielle, crée une équipe de recherche pour travailler aux côtés des ingénieurs et s’assurer que les progrès technologiques n’entraînent pas des dérives.

Des risques pour l‘emploi en passant par la menace des armes autonomes ou des biais discriminants, les sujets polémiques liés à l’intelligence artificielle (IA) ne manquent pas. Deepmind, la filiale d’Alphabet dédiée à ce domaine, crée une unité consacrée aux questions éthiques et sociétales soulevées par l’intelligence artificielle, baptisée Deepmind Ethics and Society (DMES). Sa mission: «aider les ingénieurs à mettre en pratique l’éthique et à aider la société à anticiper et à diriger l’impact de l’IA afin qu’elle fonctionne au bénéfice de tous», explique la société sur son blog. Huit employés y seront dédiés à plein-temps, et 6 conseillers externes du milieu universitaire et du secteur caritatif apporteront leurs expertises bénévolement. Le professeur de Columbia, Jeffrey Sachs, le professeur d’Oxford AI Nick Bostrom et Christiana Figueres, militante pour le changement climatique, font partie des noms connus. Le comité devrait compter 25 membres d’ici à la fin de l’année et publier ses premières réflexions d’ici début 2018.

«Ces chercheurs sont importants non seulement pour l’expertise qu’ils apportent, mais aussi pour la diversité de pensée qu’ils représentent», ont déclaré les coprésidents de DMES, Verity Harding et Sean Legassick.

Un questionnement mondial

Certaines dérives de l’IA ont déjà pu être constatées, notamment auprès d’intelligences artificielles qui travaillent sur le langage et héritent de préjugés sexistes et racistes. La Carnegie Mellon University y consacre déjà un centre, tandis que de nombreux chercheurs dans le monde se penchent sur les enjeux sectoriels de l’intelligence artificielle. A l’université d’Oxford, c’est ainsi au cas des travailleurs du clic que l’on s’intéresse depuis maintenant de nombreuses années: l’industrie de l’intelligence artificielle repose en effet sur le minutieux travail d’entraînement fourni par une masse de travailleurs précaires de 45 à 90 millions de personnes.

Les réflexions éthiques autour de l’intelligence artificielle sont alimentées par les déclarations fracassantes du physicien Stephen Hawking ou d’Elon Musk, le fondateur de Tesla. Ce dernier aime à qualifier l’intelligence artificielle de «plus grand risque auquel notre civilisation sera confrontée» en convoquant le spectre des armes autonomes. Il fait partie des cent seize responsables d’entreprises de robotique et spécialistes de l’intelligence artificielle qui ont écrit une lettre ouverte aux Nations unies en août dernier afin de mettre en garde contre les dangers des armes autonomes et «robots tueurs», que leurs avancées technologiques permettent de développer. Ils redoutent ainsi «des conflits armés à une échelle jamais vue auparavant et à des vitesses difficiles à concevoir pour les humains».

Se positionner en leader

Tous les géants cherchent à se positionner en leader sur les réflexions particulièrement médiatiques liées à l’intelligence artificielle. En 2016, Facebook s’est allié avec Microsoft, Amazon, IBM, Apple et… Google pour un «partenariat pour l’intelligence artificielle au bénéfice des citoyens et de la société». Ces entreprises américaines souhaitent définir les bonnes pratiques en matière d’éthique. D’autres start-up américaines d’IA ont créé leurs propres conseils d’éthique, comme Lucid.Ai. Le Future of Life Institute, situé à Boston, planche également sur le sujet.

Alors que les avancées technologiques en intelligence artificielle suivent un rythme soutenu, les experts internationaux s’inquiètent toutefois du temps d’adaptation du législateur. L’ONU se penche depuis 2013 sur les armes autonomes et a récemment voté en faveur de discussions plus formelles au sujet des robots tueurs, des drones, chars et mitrailleuses automatisés. Les parlementaires français et européens s’emparent progressivement de la question. «En elle-même, la réflexion éthique n’est pas en retard», expliquait au Figaro Raja Chatila, directeur de l’Institut des systèmes intelligents et de robotique (ISIR), une unité de recherche commune à l’Université Pierre et Marie Curie et au CNRS. «En revanche, elle ne s’impose pas et personne n’est forcé de la respecter.»

Sortir de la tourmente

DeepMind Ethics and Society (DMES) apparaît également dans un contexte trouble. DeepMind avait exigé la création d’un comité éthique, lorsqu’il a accepté d’être acheté par Google en 2014. Ce conseil, qui devait voir le jour début 2016, était censé superviser l’ensemble de la recherche de la start-up britannique, mais aucune de ces annonces n’a été suivie d’effet durant les trois ans et demi qui ont suivi l’acquisition. Comme le rappelle le Guardian, le mystère est longtemps resté entier sur les noms de ses membres, la régularité de leurs rencontres et leurs sujets de discussion.

Pour le journal britannique, cette annonce tardive survient pile au moment où DeepMind s’est attiré une très mauvaise publicité au Royaume-Uni. L’entreprise participe à un certain nombre de projets britanniques de recherche médicale centrés sur l’IA, qui utilisent l’apprentissage machine (machine learning) pour diagnostiquer des maladies, voire développer leur traitement. Le régulateur britannique en matière de protection des données personnelles a toutefois jugé illicite l’usage de données personnelles et médicales que faisait Deepmind à des fins de recherches

 

 

source:lefigaro.fr

Laisser un commentaire