Donald Trump a ordonné « à toutes les agences fédérales du gouvernement américain de cesser immédiatement toute utilisation de la technologie d’Anthropic. Nous n’en avons pas besoin, nous n’en voulons pas, et nous ne travaillerons plus avec eux », a écrit le président américain sur son réseau social, Truth Social, vendredi 27 février.

Le républicain a qualifié d’« erreur désastreuse » le refus de la start-up californienne d’ouvrir sans restriction sa technologie d’intelligence artificielle (IA) à l’armée américaine. « Leur égoïsme met en danger des vies américaines, nos troupes et la sécurité nationale », a-t-il accusé.

« Les Etats-Unis ne laisseront jamais une entreprise de gauche radicale et woke dicter à notre grande armée comment combattre et gagner des guerres ! », s’est également énervé Donald Trump en majuscules.

Plus tard vendredi, l’entreprise OpenAI a annoncé un accord avec le ministère de la défense qui pourra utiliser son système d’IA avec certaines « garanties ».

Le secrétaire à la défense américain, Pete Hegseth, avait fixé un ultimatum à Anthropic pour accepter d’ouvrir sans limitation son modèle Claude.

Anthropic « a donné une leçon magistrale d’arrogance et de trahison », a-t-il attaqué après son expiration, vendredi à 23 h 01 (heure de Paris). « Leur véritable objectif est sans équivoque : s’arroger un pouvoir de veto sur les décisions opérationnelles de l’armée américaine. C’est inacceptable », a accusé le secrétaire à la défense, dans un long message posté sur son compte X. « Les soldats américains ne seront jamais pris en otage par les caprices idéologiques des géants de la tech », a-t-il martelé.

Il a mis ses menaces à exécution en ordonnant l’inscription d’Anthropic sur une liste d’entreprises empêchées de collaborer avec toute société liée à l’armée américaine.

Se disant « profondément attristée » par cette décision, Anthropic, qui a annoncé son intention de se saisir la justice, a estimé, dans un communiqué, que « cette désignation serait à la fois juridiquement infondée et créerait un précédent dangereux pour toute entreprise américaine négociant avec le gouvernement ».

« Aucune intimidation ou sanction de la part du ministère de la guerre [nom donné par l’administration Trump au ministère de la défense] ne changera notre position », a déclaré la compagnie dans un communiqué.

Anthropic pose en fait une limite éthique à l’utilisation de sa technologie ? à laquelle l’armée et le renseignement américains ont déjà recours pour la défense du pays ? dans deux cas précis : la surveillance de masse des citoyens américains et les armes mortelles entièrement autonomes. « Utiliser ces systèmes à des fins de surveillance de masse domestique est incompatible avec les valeurs démocratiques », s’est défendu son patron, Dario Amodei.

« En toute conscience, nous ne pouvons pas accéder à leur demande », a-t-il déclaré alors que son entreprise a signé en juin un contrat de 200 millions de dollars (170 millions d’euros environ) avec le gouvernement américain.

Le dirigeant quadragénaire, qui avait été convoqué mardi par Pete Hegseth, insiste sur le fait que les systèmes les plus avancés d’IA ne sont pas encore fiables au point de leur confier le pouvoir de contrôler des armes mortelles – et donc de tuer – sans une supervision humaine en dernier ressort. Les armes entièrement autonomes « doivent être déployées avec des garde-fous appropriés, qui n’existent pas aujourd’hui », a estimé Dario Amodei.

« Nous ne fournirons pas sciemment un produit qui met militaires et civils américains en danger », a-t-il tranché. « Anthropic comprend » que c’est le ministère de la défense, « pas les entreprises privées, qui prend les décisions militaires. Cependant, dans un nombre restreint de cas, nous pensons que l’IA peut nuire aux valeurs démocratiques, plutôt que les défendre », prend-il position.

Face à la pression exercée par l’administration Trump, quelque 400 employés de Google et OpenAI ont exprimé, vendredi, leur soutien à Anthropic dans une lettre ouverte. « Le Pentagone négocie avec Google et OpenAI pour leur faire accepter ce qu’Anthropic a refusé », écrivent-ils. « Nous espérons que nos dirigeants vont mettre leurs différences de côté et s’unir pour refuser les demandes » du ministère de la défense, exhortent les auteurs.

Quelques heures après, le patron d’OpenAI, Sam Altman, a annoncé un accord avec le Pentagone, sous certaines « garanties » qui ressemblent pourtant à celles énoncées par Anthropic.

« Deux de nos principes de sécurité les plus importants sont l’interdiction de la surveillance de masse au niveau national et la responsabilité humaine dans l’usage de la force, y compris pour les systèmes d’armes autonomes », a ainsi écrit M. Altman sur le réseau social X. Le Pentagone « approuve ces principes, les reflète dans sa législation et sa politique, et nous les avons intégrés dans notre accord », a-t-il ajouté.

« Nous mettrons également en place des garanties techniques pour nous assurer que nos modèles se comportent comme ils le devraient, ce que le ministère de la guerre souhaitait également », a poursuivi le patron d’OpenAI, créateur de ChatGPT.

Sam Altman a dit avoir demandé au Pentagone « d’offrir ces mêmes conditions à toutes les entreprises d’IA ». « Nous avons exprimé notre vif souhait de voir les choses s’apaiser, loin des actions juridiques et gouvernementales, pour aboutir à des accords raisonnables », a-t-il écrit.

Recomendar A Un Amigo
  • gplus
  • pinterest
Commentarios
No hay comentarios por el momento

Tu comentario