Detta är ett HISTORISKT ögonblick inom AI. USA:s Pentagon ville ha ett avtal värt 200 miljoner dollar för att använda Anthropics Claude utan några restriktioner, inklusive massövervakning av amerikanska medborgare och helt autonoma vapen. Anthropic sa "NEJ" eftersom dessa användningar går över hårda gränser för säkerhet, etik och tillförlitlighet. VD Dario sade: "Vi kan inte med gott samvete acceptera." Detta ledde till ett omedelbart federalt förbud mot all antropisk teknik (6 månaders utfasning av DoD), samt att de kallades en "supply chain risk", en beteckning som vanligtvis är reserverad för utländska företag som är motvilliga. Det är AI-etik kontra nationella säkerhetsprioriteringar.