|
Les géants de l'IA ne nient pas l'existence de risques, mais craignent que l'innovation ne soit bridée par des lois trop contraignantes. Photo: AFP |
"Notre objectif est d'avoir une discussion franche sur les risques actuels et à court-terme que nous percevons dans les développements de l'IA", indique l'invitation consultée par l'AFP mardi 2 mai. L'administration veut aussi envisager "des mesures à prendre pour réduire ces risques et d'autres façons de travailler ensemble pour nous assurer que le peuple américain bénéficie des avancées dans l'IA tout en le protégeant des dangers".
Satya Nadella (Microsoft), Sundar Pichai (Google), Sam Altman (OpenAI) et Dario Amodei (Anthropic) ont confirmé leur participation, selon la Maison Blanche. Ils s'entretiendront avec plusieurs membres du gouvernement, dont la vice-présidente des États-Unis, Kamala Harris.
L'intelligence artificielle est très présente dans le quotidien depuis des années, des algorithmes de recommandation sur les réseaux sociaux aux logiciels de recrutement et à de nombreux appareils ménagers haut de gamme.
Mais le succès fulgurant cet hiver de ChatGPT, l'interface d'IA générative d'OpenAI, une start-up largement financée par Microsoft, a lancé une course à des systèmes toujours plus performants, entraînés sur des montagnes de données, capables de générer du code, des textes et des images de plus en plus complexes.
Leur déploiement suscite de l'enthousiasme et des inquiétudes d'une ampleur nouvelle. Surtout quand Sam Altman, le patron d'OpenAI, évoque l'avènement prochain de l'IA dite "générale", quand les programmes seront "plus intelligents que les humains en général".
Pas d'obligations
Les dangers vont de la discrimination par des algorithmes, à l'automatisation de tâches remplies par des humains, au vol de propriété intellectuelle ou encore à la désinformation sophistiquée à grande échelle, entre autres.
"Les modèles de langage capables de générer des images, du son et de la vidéo constituent un rêve devenu réalité pour ceux qui veulent détruire les démocraties" estime David Harris, professeur à l'université de Berkeley, spécialiste des politiques publiques et de l'IA.
|
Le succès fulgurant cet hiver de La Maison Blanche invite les dirigeants de Google, Microsoft, OpenAi et Anthropic à une réunion sur les risques liés à l'AI. Photo: AFP
|
La Maison Blanche a publié fin 2022 un "plan pour une Déclaration des droits sur l'IA", qui énumère des principes généraux tels que la protection contre les systèmes dangereux ou faillibles. Le National Institute of Standards and Technology (NIST), un centre affilié au gouvernement, a lui conçu un "cadre pour la gestion des risques" liés à l'IA. Et le président Joe Biden a "clairement" dit récemment que les entreprises "doivent s'assurer que leurs produits sont sûrs avant de les mettre à disposition du grand public", mentionne l'invitation.
Mais "ces lignes directrices et déclarations n'obligent pas les sociétés concernées à faire quoi que ce soit", souligne David Harris, qui a été directeur de recherche sur une IA responsable chez Meta. "Les patrons réclament eux-mêmes davantage de régulation", remarque-t-il, mais Facebook a longtemps "appelé publiquement" à mieux réglementer la confidentialité des données personnelles, "tout en payant des lobbies pour se battre contre les projets de loi".
"Dommages réels"
Les géants de l'IA ne nient pas l'existence de risques, mais craignent que l'innovation ne soit bridée par des lois trop contraignantes.
"Je suis sûr que l'IA va être utilisé par des acteurs malveillants, et oui, cela va causer des dégâts", a déclaré mercredi 3 mai Michael Schwarz, économiste en chef de Microsoft, lors d'un débat au World Economic Forum à Genève, d'après Bloomberg. Mais il a appelé les législateurs à ne pas se précipiter. Et, quand il y aura des "dommages réels", à s'assurer que "les bénéfices de la régulation soient plus importants que le coût pour la société".
Lina Khan, la présidente de l'Agence américaine de protection des consommateurs a comparé le choix actuel avec l'avènement des grandes plateformes numériques dans les années 2000.
Dans une tribune publiée dans le New York Times mercredi 3 mai, elle explique que leur modèle économique, fondé sur les données d'utilisateurs, aux dépens de leur "sécurité", n'était "pas inévitable". "Les autorités ont la responsabilité de s'assurer que l'histoire ne se répète pas", assène cette juriste réputée pour son hostilité aux grandes sociétés technologiques.
De l'autre côté de l'Atlantique, l'Europe espère à nouveau montrer la voie avec un règlement ad hoc sur l'IA, comme elle l'avait fait avec la loi sur les données personnelles.