Anthropic et le Pentagone en désaccord sur l'utilisation de l'IA dans le domaine de la défense et de la sécurité
La semaine dernière, un bras de fer entre le Pentagone et l’entreprise Anthropic, un leader dans le domaine de l'IA, a dégénéré en un affrontement majeur autour de l’usage de l’intelligence artificielle dans les opérations militaires. Le différend portait sur la volonté de l'armée américaine d'utiliser l'IA Claude d'Anthropic pour des armes autonomes et dans le domaine de la surveillance, y compris dans des situations extrêmes, comme l’interception d’un missile nucléaire.
Les dirigeants du Pentagone ont soutenu que de telles capacités étaient essentielles pour la sécurité nationale. Anthropic estime de son côté que même avec l’obligation d’une présence humaine dans le processus décisionnel, les systèmes d'IA actuels ne sont pas assez fiables pour des décisions de vie ou de mort ou pour une surveillance massive au niveau national. L'entreprise a donc refusé de renoncer à ses principes éthiques.
Mais vendredi dernier, OpenAI, le créateur de ChatGPT, a conclu un accord avec le Pentagone pour fournir ses technologies d'intelligence artificielle à des systèmes classifiés, quelques heures seulement après l’ordre donné par le président Trump aux agences fédérales d’arrêter d'utiliser l'IA d