“Menti, codici e fantasmi” è un podcast di cibernetica e intelligenza artificiale.
Questo è il primo episodio, dove parliamo della vicenda che ha visto Anthropic affrontare il Pentagono e dei limiti etici delle IA impiegate in scenari di guerra.
La trascrizione è realizzata dalla IA di Substack e contiene piccole imprecisioni, dovute in buona parte alla mia pronuncia e in piccola al fatto che il sistema non è ancora così intelligente.
Qui sotto trovate le note di approfondimento e la sitografia che ho consultato.
Il podcast è registrato con un lavalier Rhode GO, prodotto con Reaper sotto Linux Endeavour e la breve composizione finale è realizzata con Google Gemini Lyria 3.
Note
Norbert Wiener (1894–1964): matematico e filosofo americano, considerato il fondatore della cibernetica. La sua opera principale, Cybernetics: Or Control and Communication in the Animal and the Machine (1948), definì il campo interdisciplinare che studia i sistemi di controllo e comunicazione sia negli organismi viventi che nelle macchine.
L’articolo “Some Moral and Technical Consequences of Automation” fu pubblicato da Wiener su Science (Vol. 131, No. 3410, pp. 1355-1358) il 6 maggio 1960.
Anthropic PBC è stata fondata nel 2021 da Dario Amodei (CEO) e Daniela Amodei (Presidente), insieme ad altri ex dipendenti di OpenAI. È strutturata come Public Benefit Corporation, una forma societaria che impone all’azienda di perseguire sia il profitto che un beneficio pubblico dichiarato.
Palantir Technologies è un’azienda americana di analisi dati fondata nel 2003 da Peter Thiel, Alex Karp e altri. È uno dei principali fornitori di software per il Dipartimento della Difesa e le agenzie di intelligence statunitensi. Il governo rappresenta circa il 60% del suo fatturato americano.
Acceptable Use Policy (AUP): la politica d’uso accettabile di un servizio tecnologico. Stabilisce cosa gli utenti possono e non possono fare con la tecnologia. Nel caso di Anthropic, l’AUP include le restrizioni su armi autonome e sorveglianza di massa.
Pete Hegseth: conduttore televisivo di Fox News, nominato Segretario alla Difesa (Secretary of War, secondo la denominazione reintrodotta dall’amministrazione Trump per il Dipartimento della Difesa) nel gennaio 2025.
L’operazione di cattura dell’ex presidente venezuelano Nicolás Maduro è stata condotta dalle forze americane nel febbraio 2026. Secondo fonti di stampa, il modello Claude di Anthropic è stato utilizzato durante l’operazione attraverso la piattaforma Palantir.
Defense Production Act (DPA): legge federale americana del 1950, adottata durante la Guerra di Corea, che conferisce al Presidente ampi poteri per dirigere la produzione industriale privata a fini di difesa nazionale.
Supply Chain Risk: ai sensi della normativa federale (10 USC § 3252 e FASCSA - Federal Acquisition Supply Chain Security Act), il rischio che un avversario possa sabotare, introdurre funzionalità malevole o compromettere un sistema utilizzato dal governo. La designazione è stata storicamente utilizzata solo per aziende legate ad avversari stranieri.
Il conflitto tra Stati Uniti e Iran è iniziato con attacchi militari americani nella serata (ora americana) del 27 febbraio 2026.
Emil Michael: imprenditore e dirigente, nominato sottosegretario del Pentagono per la Ricerca e l’Ingegneria (Under Secretary for Research and Engineering) nell’amministrazione Trump. Ha guidato i negoziati con Anthropic.
Amicus brief (amicus curiae = “amico della corte”): documento legale depositato da un soggetto non direttamente coinvolto in una causa, che offre al tribunale informazioni, argomenti o competenze rilevanti per la decisione.
Rita Lin: giudice federale del Distretto Settentrionale della California, nominata dal Presidente Biden.
Bibliografia e sitografia
Amodei, D. — “Statement from Dario Amodei on our discussions with the Department of War.” Anthropic, 26 febbraio 2026. https://www.anthropic.com/news/statement-department-of-war
Anthropic — “Statement on the comments from Secretary of War Pete Hegseth.” 27 febbraio 2026. https://www.anthropic.com/news/statement-comments-secretary-war
Axios — “Exclusive: Pentagon threatens to cut off Anthropic in AI safeguards dispute.” 15 febbraio 2026. https://www.axios.com/2026/02/15/claude-pentagon-anthropic-contract-maduro
Axios — “Pentagon approves OpenAI safety red lines after dumping Anthropic.” 28 febbraio 2026. https://www.axios.com/2026/02/27/pentagon-openai-safety-red-lines-anthropic
Axios — “Anthropic sues Pentagon over rare ‘supply chain risk’ label.” 9 marzo 2026. https://www.axios.com/2026/03/09/anthropic-sues-pentagon-supply-chain-risk-label
Ball, D. — Post su X, 26 marzo 2026.
CBS News — “Hegseth declares Anthropic a supply chain risk.” 28 febbraio 2026. https://www.cbsnews.com/news/hegseth-declares-anthropic-supply-chain-risk/
CNBC — “Anthropic officially told by DOD that it’s a supply chain risk even as Claude used in Iran.” 5 marzo 2026. https://www.cnbc.com/2026/03/05/anthropic-pentagon-ai-claude-iran.html
CNBC — “Defense tech companies are dropping Claude after Pentagon’s Anthropic blacklist.” 4 marzo 2026. https://www.cnbc.com/2026/03/04/pentagon-blacklist-anthropic-defense-tech-claude.html
CNBC — “Judge presses DOD on why Anthropic’s Claude was blacklisted.” 24 marzo 2026. https://www.cnbc.com/2026/03/24/anthropic-lawsuit-pentagon-supply-chain-risk-claude.html
CNN — “Trump administration orders military contractors and federal agencies to cease business with Anthropic.” 28 febbraio 2026. https://www.cnn.com/2026/02/27/tech/anthropic-pentagon-deadline
CNN — “Anthropic rejects latest Pentagon offer.” 27 febbraio 2026. https://www.cnn.com/2026/02/26/tech/anthropic-rejects-pentagon-offer
CNN — “Pentagon threatens to make Anthropic a pariah.” 24 febbraio 2026. https://www.cnn.com/2026/02/24/tech/hegseth-anthropic-ai-military-amodei
CNN — “Pentagon’s supply chain risk label for Anthropic narrower than initially implied.” 5 marzo 2026. https://www.cnn.com/2026/03/05/tech/pentagon-anthropic-supply-chain-risk
CNN — “Anthropic sues the Trump administration.” 9 marzo 2026. https://www.cnn.com/2026/03/09/tech/anthropic-sues-pentagon
CNN — “Judge blocks Pentagon’s effort to ‘punish’ Anthropic.” 26 marzo 2026. https://www.cnn.com/2026/03/26/business/anthropic-pentagon-injunction-supply-chain-risk
Lawfare — “Pentagon’s Anthropic Designation Won’t Survive First Contact with Legal System.” Marzo 2026. https://www.lawfaremedia.org/article/pentagon’s-anthropic-designation-won’t-survive-first-contact-with-legal-system
Lawfare — “The Situation: Thinking About Anthropic’s Red Lines.” Marzo 2026. https://www.lawfaremedia.org/article/the-situation--thinking-about-anthropic-s-red-lines
Lin, R. — Opinione della Corte, caso Anthropic PBC v. United States. U.S. District Court, Northern District of California, 26 marzo 2026. https://storage.courtlistener.com/recap/gov.uscourts.cand.465515/gov.uscourts.cand.465515.134.0.pdf
Lin, R. — Ordinanza restrittiva, 26 marzo 2026. https://storage.courtlistener.com/recap/gov.uscourts.cand.465515/gov.uscourts.cand.465515.135.0_2.pdf
Military.com — “Federal Judge Temporarily Blocks the Pentagon from Branding AI Firm Anthropic a Supply Chain Risk.” 27 marzo 2026. https://www.military.com/daily-news/2026/03/27/federal-judge-temporarily-blocks-pentagon-branding-ai-firm-anthropic-supply-chain-risk.html
MIT Technology Review — “The Pentagon’s culture war tactic against Anthropic has backfired.” O’Donnell, J. 30 marzo 2026. https://www.technologyreview.com/2026/03/30/1134881/the-pentagons-culture-war-tactic-against-anthropic-has-backfired/
MIT Technology Review — “OpenAI’s ‘compromise’ with the Pentagon is what Anthropic feared.” 2 marzo 2026. https://www.technologyreview.com/2026/03/02/1133850/openais-compromise-with-the-pentagon-is-what-anthropic-feared/
NBC News — “Anthropic says the Pentagon has declared it a national security risk.” Marzo 2026. https://www.nbcnews.com/tech/tech-news/anthropic-says-pentagon-declared-national-security-risk-rcna262013
NPR — “Pentagon labels AI company Anthropic a supply chain risk ‘effective immediately’.” 6 marzo 2026. https://www.npr.org/2026/03/06/g-s1-112713/pentagon-labels-ai-company-anthropic-a-supply-chain-risk
NPR — “OpenAI announces Pentagon deal after Trump bans Anthropic.” 28 febbraio 2026. https://www.npr.org/2026/02/27/nx-s1-5729118/trump-anthropic-pentagon-openai-ai-weapons-ban
OpenAI — “Our agreement with the Department of War.” 28 febbraio 2026. https://openai.com/index/our-agreement-with-the-department-of-war/
Scientific American — “Anthropic’s safety-first AI collides with the Pentagon as Claude expands into autonomous agents.” 21 febbraio 2026. https://www.scientificamerican.com/article/anthropics-safety-first-ai-collides-with-the-pentagon-as-claude-expands-into/
Scientific American — “Why replacing Anthropic at the Pentagon could take months.” Marzo 2026. https://www.scientificamerican.com/article/why-replacing-anthropic-with-openai-at-the-pentagon-could-take-months/
TechCrunch — “Pentagon moves to designate Anthropic as a supply chain risk.” 27 febbraio 2026. https://techcrunch.com/2026/02/27/pentagon-moves-to-designate-anthropic-as-a-supply-chain-risk/
Wiener, N. — Cybernetics: Or Control and Communication in the Animal and the Machine. MIT Press, 1948.
Wiener, N. — “Some Moral and Technical Consequences of Automation.” Science, Vol. 131, No. 3410, pp. 1355-1358, 6 maggio 1960.


