Questo è un momento STORICO nell'AI. Il Pentagono degli Stati Uniti voleva un contratto da 200 milioni di dollari per utilizzare Claude di Anthropic senza alcuna restrizione, inclusa la sorveglianza di massa dei cittadini statunitensi e armi completamente autonome. Anthropic ha detto "NO" perché tali usi superano linee rosse fondamentali in materia di sicurezza, etica e affidabilità. Il CEO Dario ha detto: "Non possiamo, in buona coscienza, acconsentire." Questo ha portato a un divieto federale immediato su tutta la tecnologia di Anthropic (fase di eliminazione del DoD di 6 mesi) oltre a etichettarli come un "rischio per la catena di approvvigionamento", una designazione di solito riservata a imprese straniere avversarie. È etica dell'AI contro le priorità di sicurezza nazionale.