Dans le monde effréné de la technologie, une nouvelle qui a fait l’effet d’une bombe a récemment été annoncée. Les géants de la tech, Google, Microsoft, Anthropic et OpenAI, ont décidé de joindre leurs forces pour créer une organisation professionnelle inédite. Leur objectif ? Lutter contre les risques liés à l’intelligence artificielle (IA) qui pourraient révolutionner notre monde.
Une alliance pour un futur sécurisé
Google, Microsoft, Anthropic et OpenAI, ces noms ne vous sont certainement pas inconnus. Ces entreprises, leaders dans le domaine de l’IA, ont annoncé la création d’une nouvelle organisation professionnelle. Le but de cette alliance est de combattre les risques liés à cette technologie qui pourrait bien bouleverser notre quotidien.
Cette nouvelle organisation, baptisée
Frontier Model Forum, a pour mission de promouvoir un “développement responsable” des modèles d’IA les plus sophistiqués et de “minimiser les risques potentiels”. Les membres s’engagent à partager entre eux et avec des législateurs, chercheurs et associations des bonnes pratiques pour rendre ces nouveaux systèmes moins dangereux.
La régulation de l’IA, une nécessité
L’IA générative, à travers des interfaces très populaires comme ChatGPT (OpenAI), Bing (Microsoft) ou Bard (Google), suscite beaucoup d’inquiétudes des autorités et de la société civile. L’Union européenne (UE) finalise un projet de régulation de l’intelligence artificielle qui doit imposer des obligations aux entreprises du secteur, comme la transparence avec les utilisateurs ou le contrôle humain sur la machine.
Les États-Unis et la régulation de l’IA
Aux États-Unis, les tensions politiques au Congrès empêchent tout effort en ce sens. La Maison-Blanche incite donc les groupes concernés à s’assurer eux-mêmes de la sûreté de leurs produits, au nom de leur “devoir moral”. L’administration de Joe Biden a obtenu des “engagements” de la part d’Amazon, Anthropic, Google, Inflection, Meta, Microsoft et OpenAI à respecter “trois principes” dans le développement de l’IA (la sûreté, la sécurité et la confiance).
Des capacités dangereuses peuvent émerger de façon inattendue
Les dirigeants de ces entreprises ne nient pas les risques, bien au contraire. En juin, Sam Altman, le patron d’OpenAI et Demis Hassabis, le dirigeant de DeepMind (Google), notamment, ont appelé à lutter contre “les risques d’extinction” de l’humanité “liés à l’IA”.
Cette alliance entre les GAFAM est une nouvelle étape dans la régulation de l’IA. Il est clair que le développement de cette technologie doit être encadré pour éviter tout risque de dérive. Cette initiative est donc une excellente nouvelle pour l’avenir de l’IA et, par extension, pour notre futur à tous.