Google, Microsoft, Anthropic et OpenAI unissent leurs forces pour réguler l’IA de pointe

Le mercredi 26 juillet, Google, Microsoft, Anthropic et OpenAI, quatre leaders incontestés de la course à l’intelligence artificielle de dernière génération, ont annoncé la création d’une nouvelle organisation professionnelle. Cette initiative vise à faire face aux risques potentiels associés à cette technologie révolutionnaire.

Baptisée « Frontier Model Forum, » cette nouvelle organisation a pour mission de promouvoir un « développement responsable » des modèles d’intelligence artificielle (IA) les plus avancés et de « minimiser les risques potentiels, » selon un communiqué conjoint. Les membres de cette alliance s’engagent à partager des meilleures pratiques entre eux et avec des législateurs, chercheurs et associations, dans le but de rendre ces nouvelles technologies moins dangereuses.

L’essor rapide de l’IA générative, à travers des interfaces devenues très populaires comme ChatGPT (OpenAI), Bing (Microsoft) ou Bard (Google), a suscité de vives préoccupations parmi les autorités et la société civile. Parallèlement, l’Union européenne (UE) finalise un projet de régulation de l’intelligence artificielle, qui imposera des obligations aux entreprises du secteur, telles que la transparence vis-à-vis des utilisateurs et le maintien du contrôle humain sur les systèmes.

Aux États-Unis, les tensions politiques au Congrès ont entravé les efforts pour une réglementation similaire. Par conséquent, l’administration Biden encourage les entreprises concernées à assurer elles-mêmes la sécurité de leurs produits, invoquant leur « devoir moral, » selon les termes de la vice-présidente américaine Kamala Harris en mai.

La semaine dernière, l’administration Biden a obtenu des « engagements » de la part d’Amazon, Anthropic, Google, Inflection, Meta, Microsoft et OpenAI pour respecter « trois principes » dans le développement de l’IA : la sûreté, la sécurité et la confiance. Ces entreprises se sont engagées à tester leurs programmes en amont, à lutter contre les cyberattaques et la fraude, et à trouver des moyens pour authentifier clairement les contenus générés par l’IA.

Les dirigeants de ces entreprises reconnaissent clairement les risques associés à l’IA. En juin, Sam Altman, le PDG d’OpenAI, et Demis Hassabis, le dirigeant de DeepMind (Google), ont exprimé leur préoccupation face aux « risques d’extinction » de l’humanité liés à l’IA. Lors d’une audience au Congrès, Sam Altman a plaidé en faveur de la création d’une agence internationale de régulation de l’intelligence artificielle, similaire à celles existantes dans d’autres domaines. En attendant, OpenAI poursuit ses efforts pour développer une intelligence artificielle dite « générale, » dotée de capacités cognitives similaires à celles des êtres humains.

Dans une publication datée du 6 juillet, la start-up californienne a qualifié les « frontier models » d’IA de programmes fondamentaux « très perfectionnés » pouvant comporter des « capacités dangereuses » susceptibles de poser de graves risques pour la sécurité publique. OpenAI a également mis en garde contre le fait que « des capacités dangereuses peuvent émerger de façon inattendue » et qu’il est difficile d’empêcher qu’un modèle déployé soit utilisé de manière abusive.