Les 37 projets d’Elon Musk contre les dangers de l’intelligence artificielle

Le Monde - 6/07/15

Avec Bill Gates et Stephen Hawking, le milliardaire américain Elon Musk fait partie des grandes figures qui ont exprimé, ces derniers mois, leur inquiétude vis-à-vis des progrès de l’intelligence artificielle (IA). En guise de passage à l’acte, le célèbre PDG du constructeur de voitures électriques Telsa et de SpaceX a attribué la semaine dernière des millions de dollars dans 37 projets de recherche destinés à prévenir les risques liés à l’IA.

Une démarche initiée en janvier : il avait alors donné 10 millions de dollars (9 millions d’euros) au Future of Life Institute (FLI), un organisme américain à but non lucratif qui se focalise, peut-on lire sur son site, sur « les risques potentiels du développement d’une intelligence artificielle de niveau humain » et qui « travaille à atténuer les risques existentiels auxquels doit faire face l’humanité ».

Sept mois plus tard, 37 équipes de recherche ont été sélectionnées, parmi près de 300 candidates, pour recevoir une partie de cette somme. Objectif de ce programme : « garder l’IA fiable et bénéfique », peut-on lire dans un communiqué du FLI. En tout, 7 millions de dollars, issus des dons d’Elon Musk et de l’Open Philanthropy project, leur seront distribués, pour leur permettre de développer leurs projets sur trois ans. Des équipes appartenant aux prestigieuses universités de Berkeley, Stanford ou encore Oxford font partie des bénéficiaires.

Parmi les projets sélectionnés, certains ont pour but de développer des techniques « pour que les systèmes d’IA intègrent les préférences des humains en observant notre comportement », d’autres travaillent à « faire en sorte que les intérêts des systèmes superintelligents restent alignés avec les valeurs humaines ». D’autres, encore, veulent faire en sorte que les IA soient capables d’expliquer leurs décisions aux humains ou se penchent sur la question du rapport de l’intelligence artificielle aux armes ou à l’économie.

« Il existe une course entre le pouvoir grandissant de la technologie et le bon sens avec lequel on la gère, explique Max Tegmark, le président de FLI, à Bloomberg. Jusqu’ici, tous les investissements ont eu pour objectif de rendre les systèmes plus intelligents, c’est la première fois qu’il y a un investissement sur l’autre aspect. » Il modère toutefois, dans un communiqué, l’étendue des risques liés à l’IA, et l’imaginaire qui y est souvent associé :

« Le danger avec le scénario Terminator n’est pas qu’il se réalise, mais qu’il nous distraie des véritables problèmes posés par l’IA. (…) Les 37 équipes soutenues par ces bourses devraient aider à résoudre ce type de problèmes réels. »

Elon Musk avait pourtant, de son côté, déjà fait appel à l’image de Terminator pour exprimer ses craintes, estimant que l’intelligence artificielle pouvait être « plus dangereuse que des bombes nucléaires ». En janvier, il avait signé, avec 700 scientifiques et chefs d’entreprise, une lettre ouverte publiée par le FLI : « Il existe désormais un large consensus selon lequel les recherches dans l’intelligence artificielle continuent à progresser et que l’impact sur la société va probablement s’accroître », estimaient-ils, citant la possibilité « d’éradiquer des maladies et la pauvreté ». « Etant donné le grand potentiel de l’intelligence artificielle, il est important d’étudier comment la société peut profiter de ses bienfaits, mais aussi comment éviter ses pièges. »

Source : http://www.lemonde.fr/pixels/article/2015/07/06/les-37-projets-d-elon-musk-contre-les-dangers-de-l-intelligence-artificielle_4672361_4408996.html?google_editors_picks=true%29.

Commentaires

Une voix critique encore étonnamment isolée compte tenu des dangers objectifs de l'IA, pourtant largement popularisés dans des films à grand spectacle comme "2001, l'odyssée de l'espace", "Matrix" ou "Her"