Screen width of at least 320px is required. Screen width can be adjusted by widening your browser window or adjusting your mobile device settings. If you are on a mobile device, you can also try orienting to landscape.

19 March 2026

« Ce n’est pas notre guerre ; nous ne l’avons pas déclenchée »

19 March 2026

La Virginie interdit aux écoles d'enseigner des informations erronées sur l'émeute du 6 janvier 2021

12 March 2026

Les attaques américano-israéliennes contre l'Iran provoquent une onde de choc sur les marchés énergétiques mondiaux

12 March 2026

La France annonce une nouvelle doctrine nucléaire et une augmentation de son arsenal nucléaire

5 March 2026

Anthropic et le Pentagone en désaccord sur l'utilisation de l'IA dans le domaine de la défense et de la sécurité

5 March 2026

Une étude révèle comment les algorithmes de X modifient les opinions politiques des utilisateurs

26 February 2026

La France interdit à l'ambassadeur américain de rencontrer les ministres du gouvernement

26 February 2026

La trahison des États-Unis envers l'Ukraine s’inscrit dans le nouvel ordre politique mondial

19 February 2026

Relations transatlantiques : l'Europe reçoit des messages contradictoires des États-Unis

Speed 1.0x
/
aa
AA

Anthropic et le Pentagone en désaccord sur l'utilisation de l'IA dans le domaine de la défense et de la sécurité

5 March 2026
Anthropic et le Pentagone en désaccord sur l'utilisation de l'IA dans le domaine de la défense et de la sécurité
Joshua Sukoff / Shutterstock

La semaine dernière, un bras de fer entre le Pentagone et l’entreprise Anthropic, un leader dans le domaine de l'IA, a dégénéré en un affrontement majeur autour de l’usage de l’intelligence artificielle dans les opérations militaires. Le différend portait sur la volonté de l'armée américaine d'utiliser l'IA Claude d'Anthropic pour des armes autonomes et dans le domaine de la surveillance, y compris dans des situations extrêmes, comme l’interception d’un missile nucléaire.

Les dirigeants du Pentagone ont soutenu que de telles capacités étaient essentielles pour la sécurité nationale. Anthropic estime de son côté que même avec l’obligation d’une présence humaine dans le processus décisionnel, les systèmes d'IA actuels ne sont pas assez fiables pour des décisions de vie ou de mort ou pour une surveillance massive au niveau national. L'entreprise a donc refusé de renoncer à ses principes éthiques.

Mais vendredi dernier, OpenAI, le créateur de ChatGPT, a conclu un accord avec le Pentagone pour fournir ses technologies d'intelligence artificielle à des systèmes classifiés, quelques heures seulement après l’ordre donné par le président Trump aux agences fédérales d’arrêter d'utiliser l'IA d

Continue the conversation

Go further and experience the full content — and understand how French is actually used.

Continue

Already have access? Log in.

Improve your French listening skills