Donald Trump zakazuje úřadům využívat AI od firmy Anthropic: Co stojí za tímto rozhodnutím a jaké budou jeho dopady?
V posledních týdnech otřásla technologickým i politickým světem zpráva, že bývalý americký prezident Donald Trump veřejně prohlásil, že nařídil všem federálním úřadům ukončit využívání umělé inteligence (AI) od společnosti Anthropic. Tento krok přichází v době, kdy se AI stává klíčovým nástrojem nejen v soukromém sektoru, ale i ve státní správě a bezpečnosti. Proč právě Anthropic se ocitla v centru pozornosti? Jaké jsou skutečné důvody a možné důsledky tohoto rozhodnutí? Přinášíme podrobný rozbor situace a shrnutí hlavních faktů, která by neměla uniknout vaší pozornosti.
Kdo je Anthropic a proč je její AI tak sledovaná?
Anthropic je americká technologická firma založená v roce 2021 bývalými členy OpenAI, včetně Daria Amodeie a jeho sestry Danielly Amodei. Od svého vzniku se firma zaměřuje na vývoj tzv. „bezpečné“ umělé inteligence, která má být transparentnější, méně náchylná k manipulaci a lépe kontrolovatelná než konkurenční systémy. Jejich vlajkovou lodí je jazykový model Claude, konkurenční produkt ke známému ChatGPT od OpenAI.
V roce 2023 získala Anthropic investice přes 7 miliard dolarů, přičemž největšími investory jsou Amazon (4 miliardy dolarů) a Google (2 miliardy dolarů). To svědčí o obrovském zájmu technologických gigantů o tuto firmu a její řešení.
Podle veřejně dostupných dat používá Claude nebo jeho varianty více než 200 firem a několik amerických státních agentur, včetně Ministerstva obrany, Ministerstva zdravotnictví a některých výzkumných institucí. Anthropic navíc uzavřela v roce 2024 kontrakt s americkou federální vládou na pilotní testování svých AI řešení v oblasti kybernetické bezpečnosti a analýzy dat.
Trumpův zákaz: Kontext, motivace a oficiální důvody
Trumpovo rozhodnutí přišlo krátce po zveřejnění zprávy, podle níž byla část trénovacích dat modelu Claude získána z veřejně dostupných, ale i potenciálně citlivých zdrojů. Trump ve svém prohlášení uvedl, že „umělá inteligence nesmí ohrožovat bezpečnost Spojených států ani být ovlivňována zahraničními zájmy“. Zmínil rovněž obavy z možné politické zaujatosti AI systémů a rizika úniku citlivých informací.
Jeho poradci argumentují, že Anthropic podle některých nezávislých auditů nemá dostatečně robustní mechanismy na ochranu dat, která zpracovává. Podle zprávy agentury Reuters z června 2024 byly v testovacím režimu Claude zpracovávány i některé neveřejné informace, byť v anonymizované podobě.
Podle analytiků však může být motivací i geopolitické soupeření mezi USA a Čínou. Vzhledem k tomu, že Anthropic má některé zaměstnance s čínským původem a část technologií je licencována globálně, Trumpův tým poukazuje na „nepřípustné riziko pronikání zahraničních vlivů do klíčových státních systémů“.
Dopady na federální úřady a státní správu
Trumpův zákaz znamená, že všechny federální úřady musí do 30 dnů ukončit používání produktů nebo služeb od společnosti Anthropic. To se týká především pilotních projektů v oblasti zpracování textů, automatizované analýzy dat a bezpečnostního monitoringu.
Podle serveru FederalTech bylo do června 2024 v pilotním provozu více než 35 projektů, které využívaly AI od Anthropicu. Například Národní institut zdraví (NIH) testoval automatizované rozpoznávání vzorců v lékařských záznamech, zatímco agentura FEMA zkoušela AI pro rychlejší analýzu krizových situací.
Zákaz znamená nejen přerušení těchto projektů, ale i nutnost přechodu na alternativní řešení. Podle předběžných odhadů může implementace náhradních systémů stát federální rozpočet až 120 milionů dolarů a zpoždění některých projektů dosáhne 6–12 měsíců.
Srovnání: Anthropic vs. konkurenti v oblasti AI
Jak si vlastně Anthropic vede v porovnání s ostatními hráči na trhu? Níže uvádíme srovnávací tabulku tří hlavních poskytovatelů AI, kteří dodávají řešení státní správě v USA:
| Firma | Hlavní produkt | Investoři (2023–2024) | Počet vládních projektů (2024) | Bezpečnostní audit (2024) |
|---|---|---|---|---|
| Anthropic | Claude | Amazon, Google | 35+ | Probíhá, výsledky zpochybněny |
| OpenAI | GPT-4 | Microsoft, Khosla Ventures | 40+ | Splňuje federální standardy |
| Gemini | Alphabet | 28 | Splňuje federální standardy |
Z tabulky je patrné, že Anthropic patří v počtu projektů i objemu investic mezi tři největší AI firmy v USA. Oproti konkurenci však čelí zpochybnění ohledně bezpečnosti, což bylo hlavním argumentem Trumpova nařízení.
Reakce odborné veřejnosti a technologického sektoru
Rozhodnutí Trumpova týmu vyvolalo širokou debatu mezi experty na AI, bezpečnost a ochranu dat. Zatímco někteří kroky vítají jako „preventivní opatření“ (např. bývalý poradce pro kybernetickou bezpečnost Chris Krebs), jiní upozorňují na riziko zpomalení inovací a na možné „politizování technologií“.
Podle průzkumu organizace Pew Research Center z května 2024 považuje 62 % Američanů důvěru ve státní AI systémy za „zásadní otázku“, ale pouze 28 % věří, že federální agentury mají dostatečnou kontrolu nad použitím AI.
Firmy jako Google a Microsoft zatím odmítly komentovat, zda očekávají podobné restrikce. Anthropic ve svém oficiálním prohlášení uvedl, že „dodržuje všechny standardy ochrany dat a je připraven spolupracovat na nezávislém auditu“.
Možné scénáře dalšího vývoje a globální dopady
Tento zákaz může ovlivnit nejen americké úřady, ale i globální trh s AI. Podle dat společnosti IDC překročí v roce 2024 celosvětové výdaje na AI 250 miliard dolarů, přičemž vládní sektor bude tvořit více než 15 % tohoto objemu. Omezení pro jednu z klíčových firem může přesměrovat investice i inovace ke konkurenci.
Další otázkou je, zda se podobné kroky neobjeví i v Evropě nebo Asii, kde jsou obavy o suverenitu a kontrolu nad AI velmi aktuální. Evropská unie například od roku 2025 zavádí přísná pravidla pro používání AI ve státní správě (tzv. AI Act).
Pro samotný Anthropic znamená zákaz zásadní reputační i obchodní výzvu. Firma bude muset prokázat, že je schopna splnit nejpřísnější bezpečnostní požadavky a přesvědčit nejen americké, ale i mezinárodní klienty.
Závěr: Co znamená Trumpův zákaz AI od Anthropicu pro budoucnost?
Rozhodnutí Donalda Trumpa ukončit využívání AI od Anthropicu ve státní správě USA je významným precedentem v regulaci umělé inteligence. Ukazuje, jak rychle se technologie AI stávají nejen nástrojem inovací, ale i předmětem politických sporů, bezpečnostních obav a geopolitických kalkulací.
Přestože oficiálním důvodem je ochrana dat a prevence před možnými hrozbami, nelze přehlédnout ani širší souvislosti: tlak na domácí firmy, soupeření s Čínou, ale i snahu ovládnout narůstající trh s AI službami. Vývoj v nejbližších měsících ukáže, zda Anthropic dokáže obnovit důvěru státních zadavatelů, nebo zda budou úřady hledat nové cesty, jak AI bezpečně a efektivně využívat.
Jedno je však jisté: AI se stala natolik důležitou součástí státní správy, že podobná rozhodnutí budou čím dál častější – ať už v USA, Evropě nebo jinde ve světě.