Google, Microsoft, Anthropic et OpenAI ont récemment annoncé la création d’une nouvelle organisation professionnelle pour lutter contre les risques liés à l’intelligence artificielle, rapporte Latribune.fr dans l’une de ses récentes publications. Le journal français indique ainsi que les quatre géants s’engagent à partager, ensemble et avec le reste des acteurs, leurs bonnes pratiques.
Cette nouvelle organisation est baptisée «Frontier Model Forum». On apprend que Google, Microsoft, Anthropic et OpenAI s’engagent à travers cette instance à partager, entre eux et avec des législateurs, chercheurs et associations, des bonnes pratiques pour rendre ces nouveaux systèmes moins dangereux. Latribune.fr explique que plus globalement, cette structure est chargée de promouvoir un développement responsable des modèles d’IA les plus sophistiqués et de minimiser les risques potentiels.
Le journal rappelle que le déploiement rapide de l’IA générative, à travers des interfaces comme ChatGPT (OpenAI), Bing (Microsoft) ou Bard (Google), suscite beaucoup d’inquiétudes des autorités et de la société civile. La même source ajoute que les fausses photographies et les montages perfectionnés (deepfake) existent depuis des années, mais que l’IA générative, capable de produire du texte et des images sur simple requête en langage courant, fait craindre un déferlement de faux contenus en ligne.
«C’est pourquoi l’Union européenne finalise un projet de régulation de l’IA qui doit imposer des obligations aux entreprises du secteur, comme la transparence avec les utilisateurs ou le contrôle humain sur la machine», explique Latribune.fr. Notons que les dirigeants de ces quatre entreprises reconnaissent les risques liés à cette technologie. «Lors d’une audition au Congrès, Sam Altman a soutenu l’idée en vogue de créer une agence internationale chargée de la gouvernance de l’intelligence artificielle, comme il en existe dans d’autres domaines. En attendant, OpenAI travaille vers une IA dite générale, aux capacités cognitives qui seraient similaires à celles des humains», souligne Latribune.fr.