L'IA passionne à Davos, mais ses risques interrogent

Comment profiter de l'intelligence artificielle tout en prévenant ses risques: la question était dans tous les esprits...

Un stand dédié à l'Intelligence Artificielle (IA) lors du Forum Économique Mondial à Davos, le 18 janvier 2024 en Suisse © Fabrice COFFRINI
Un stand dédié à l'Intelligence Artificielle (IA) lors du Forum Économique Mondial à Davos, le 18 janvier 2024 en Suisse © Fabrice COFFRINI

Comment profiter de l'intelligence artificielle tout en prévenant ses risques: la question était dans tous les esprits à Davos cette semaine.

Les géants de la tech comme Google, Meta et Microsoft, et des dirigeants d'OpenAI, le fondateur de ChatGPT, étaient présents en force pour des panels officiels et d'innombrables rencontres informelles avec politiques et responsables économiques du monde entier dans la station de ski des Alpes suisses, où s'est achevée vendredi la réunion annuelle du Forum économique mondial.

ChatGPT, lancé fin 2022, a montré au grand public le potentiel de l'IA générative, qui permet de créer en quelques secondes des textes, des photos, des sons ou des vidéos en réponse à une requête d'un utilisateur, pour un large éventail d'utilisations.

Mais il a également mis en lumière la nécessité de régulation pour protéger les individus. L'Union européenne, les Etats-Unis ou encore la Chine s'y sont attelés.

L'IA a été "beaucoup discutée" à Davos, a relevé le secrétaire général de l'ONU, Antonio Guterres. "Mais nous n'avons pas encore de stratégie efficace et mondiale."

Le Premier ministre chinois Li Qiang a appelé à la tribune à plus de coopération sur la question, et M. Guterres a indiqué que le président chinois Xi Jinping lui avait fait part de son souhait de mettre l'ONU au cœur des négociations sur la régulation de l'intelligence artificielle.

M. Guterres avait mis en place l'année passée un panel d'experts pour plancher sur des recommandations. Il a remis en décembre un rapport d'étape préconisant des "principes généraux" comme l'inclusivité, l'intérêt général et le droit international.

Le président de Microsoft "optimiste

Le FMI avait donné le ton en amont de la réunion de Davos en estimant, dans un rapport, que l'IA aurait des conséquences - positives ou négatives - pour 60% des emplois dans les économies avancées.

A Davos, l'impact sur les pays en développement a été particulièrement débattu.

L'ONU "joue un rôle unique, de par sa légitimité mondiale, pour corriger, si vous voulez, le fait de ne pas avoir inclus certaines personnes des pays émergents et en développement, leur histoire, leurs expériences de vie ou leurs besoins", a expliqué Marietje Schaake, experte en politique informatique à l'université de Stanford, et membre du panel d'experts.

Brad Smith, vice-président du conseil d'administration de Microsoft qui a massivement investi dans OpenAI, s'est dit déjà "optimiste" avant Davos sur la perspective d'une collaboration internationale sur l'IA. "Et rien n'a changé", a-t-il dit à l'AFP.

"Davos permet de nombreuses conversations avec des personnes qui ne sont pas toujours au même endroit, et vous faites le point sur la situation, vous découvrez où sont les valeurs en commun et où vous avez des défis à relever", a-t-il estimé.

Sapthagiri Chapalapalli, du cabinet de conseil Tata Consultancy Services Europe, remarque qu'une "majorité écrasante" de ceux à qui il a parlé à Davos "pensent que l'IA a un potentiel immense".

Parmi les questions posées: comment utiliser l'IA pour augmenter la productivité, mais aussi comment s'en servir de manière responsable.

Pour l'UE, la réponse se trouve dans la vaste législation prévue pour réguler le secteur et en gérer les risques.

Désinformation

Le principal défi dans l'immédiat sera l'année électorale 2024, avec des votes prévus pour des milliards de personnes - en Europe, en Inde, au Mexique et aux Etats-Unis.

La vice-présidente de la Commission européenne chargée des valeurs et de la transparence, Vera Jourova, dit avoir interrogé les dirigeants du secteur technologique sur leurs préparatifs pour les élections.

"Ce que j'entends très souvent de la part des entreprises américaines, c'est que la façon dont l'Europe règlemente les choses atténue les risques dès le départ, qu'elle crée une plus grande certitude juridique qu'aux États-Unis", a-t-elle expliqué devant des journalistes.

Le patron d'OpenAI, Sam Altman, a de son côté reconnu les dangers de l'IA pour les élections, tout en assurant que son entreprise était "concentrée" sur le sujet.

34FY2XR