Les dirigeants d'OpenAI, le laboratoire de recherche en intelligence artificielle qui a développé le chatbot ChatGPT, ont appelé à la réglementation des technologies d'IA "surintelligentes", affirmant qu'elles "seront plus puissantes que d'autres technologies auxquelles l'humanité a dû faire face par le passé".
Dans une note publiée récemment sur le site Web d'OpenAI, Greg Brockman et Ilya Sutskever, les fondateurs d'OpenAI, ainsi que le directeur général Sam Altman, ont exprimé leur préoccupation quant aux risques potentiels associés aux systèmes d'IA avancés. Ils ont souligné la nécessité de mettre en place une surveillance internationale similaire à l'Agence internationale de l'énergie atomique, afin de réglementer ces technologies et d'éviter les éventuels risques existentiels.
Cette initiative de réglementation est motivée par une prise de conscience croissante des dangers que pourraient présenter les systèmes d'IA puissants. En effet, lors de son témoignage devant un sous-comité du Sénat, M. Altman a souligné les menaces potentielles telles que la propagation de désinformation et les violations de la vie privée, tout en insistant sur la nécessité de faire entendre cette préoccupation.
Cette inquiétude n'est pas nouvelle. En mars, plus de 1 000 dirigeants et chercheurs en technologie, dont Elon Musk, ont signé une lettre ouverte appelant à un moratoire sur le développement des systèmes d'IA avancés. Ils ont averti que ces outils présentent des risques profonds pour la société et l'humanité.
Les dirigeants d'OpenAI ont également souligné que l'IA pourrait dépasser le niveau d'expertise humaine dans la plupart des domaines au cours des 10 prochaines années, et même accomplir autant, voire plus, d'activités productives que certaines des plus grandes entreprises actuelles.
Cette préoccupation concernant les systèmes d'IA avancés survient dans un contexte où les géants de la technologie rivalisent pour dominer un marché en pleine expansion. Les entreprises technologiques ont investi des milliards de dollars dans le développement de l'IA, mais cela soulève également des inquiétudes quant à ses conséquences économiques et sociales. Selon une estimation de Goldman Sachs, l'IA pourrait automatiser jusqu'à 300 millions d'emplois à plein temps.
Face à cette situation, il devient de plus en plus urgent que les gouvernements et les organismes de réglementation prennent des mesures pour encadrer et superviser l'IA. Cependant, il est important de noter que ces questions ne sont pas limitées aux États-Unis. Les enjeux liés à l'IA sont mondiaux, et une approche de surveillance internationale serait nécessaire pour garantir une réglementation cohérente et efficace.
En ce qui concerne les États-Unis, le Congrès tente de suivre le rythme des développements technologiques. Toutefois, il est important de reconnaître que chaque pays doit adapter sa réglementation en fonction de ses propres besoins et réalités. Il est essentiel que les gouvernements travaillent en collaboration pour établir des normes internationales qui permettront de guider le développement et l'utilisation de l'IA de manière responsable.
En conclusion, la réglementation des technologies d'IA avancées est devenue une préoccupation majeure pour les experts du domaine, les dirigeants d'entreprises technologiques et les organismes de réglementation. La création d'une surveillance internationale similaire à l'Agence internationale de l'énergie atomique est proposée comme une solution potentielle pour atténuer les risques existentiels et promouvoir une utilisation responsable de l'IA. Alors que les discussions se poursuivent, je pense qu'il est crucial que les pays collaborent afin d'établir des normes mondiales qui garantiront la sécurité et la durabilité de cette technologie émergente.