Resilient och suverän AI

Den senaste tidens händelser har fått mig att tänka mycket på AI-systems resiliens och suveränitet.

Jag lämnar de etiska implikationerna åt sidan i det här inlägget — bör AI tillåtas för massövervakning av amerikanska medborgare, bör dödliga autonoma vapen tillåtas utan en människa i beslutskedjan — och fokuserar på de mer vardagliga, praktiska konsekvenserna.a Många på LinkedIn och andra sociala medier är snabba med att visa sitt stöd för Anthropic genom att avsluta sina ChatGPT-prenumerationer och istället teckna sig för Claude. Jag sympatiserar med detta (jag blev Claude MAX-prenumerant för bara några veckor sedan), men jag tror att det är kortsiktigt tänkande. Ett längre perspektiv leder till andra slutsatser om vad det innebär att vara beroende av tillgång till intelligens via chattliknande tjänster och applikationer från amerikanska teknikföretag — och resilient och suverän AI.

Förra veckan, efter en alltmer hetsig förhandling om villkoren för användning av Claude mellan Anthropic och det amerikanska försvarsdepartementetb, inte bara avbröt försvarsministernc kontraktet med Anthropic, utan instruerade departementet att klassa företaget som en leveranskedjerisk (supply-chain risk):

“In conjunction with the President’s directive for the Federal Government to cease all use of Anthropic’s technology, I am directing the Department of War to designate Anthropic a Supply-Chain Risk to National Security. Effective immediately, no contractor, supplier, or partner that does business with the United States military may conduct any commercial activity with Anthropic.”

Secretary of Defence, @SecWar

Implikationen är inte bara ett förlorat kontrakt för Anthropic (illa, men inte katastrofalt) — det är en begränsning av hur alla företag med kontrakt med försvarsdepartementet får göra affärer med dem. Om man antar att försvarsministern menar vad han skrivere skulle detta tvinga företag som AWS och Microsoft att välja mellan sin DoD-verksamhet och alla kommersiella relationer med Anthropic, hur väl separerade de än är.

Detta är nästan säkert olagligt och kommer att prövas i domstol. Men tills det är avgjort möter Anthropics samarbetspartners en reell risk: de kan behöva byta ut Anthropic helt, eller lämna sin verksamhet med försvarsdepartementet. För Anthropic — ett företag med akut behov av att anskaffa kapital och generera intäkter för att fortsätta skala — är detta mer än illa. Det är ett existentiellt hot. Dean W. Ball, en tongivande bidragsgivare till Trump-administrationens AI Action Plan, uttryckte det rakt på sak:

”(…) This is obviously a psychotic power grab. It is almost surely illegal, but the message it sends is that the United States Government is a completely unreliable partner for any kind of business. The damage done to our business environment is profound. No amount of deregulatory vibes sent by this administration matters compared to this arson.”

Dean W. Ball, @deanwball

Så vad tar jag med mig?

  1. AI-företag i länder med auktoritära regeringar kan utplånas på ett infall. Jag använder inte den beskrivningen av USA lättvindigt. Om du är beroende av ett sådant företag för affärskritiska tjänster behöver du en plan B. För mig — en mycket nöjd Claude Code-användare de senaste veckorna — innebär det att säkerställa att jag kan växla mitt dagliga arbete mellan Claude Code och Codex med kort varsel, och att aktivt arbeta mot en öppen källkods-modellharness som en mer långsiktig ersättning. Projekt som Cline och OpenCode — öppna kodningsagenter som fungerar med valfri modell-leverantör — visar att den vägen redan är framkomlig.

  2. Anthropic har fått ett massivt stöd från användare på sociala medier. Katy Perry har bland annat delat på Twitter att hon nu prenumererar på Claude Pro. Anthropic agerade snabbt för att kapitalisera på detta och publicerade en guide för hur man importerar sin personliga kontext (“minne”) från andra leverantörer (https://claude.com/import-memory). Jag betraktar min personliga kontext som en kärntillgång som jag vill ha helt under min egen kontroll. Min nuvarande uppsättning är en lättviktsdatabas på en Raspberry Pi, tillgänglig via MCP från Claude Code, Claude Desktop, Claude Web, Claude Mobile, eller motsvarande miljö från en annan leverantör. (https://github.com/Magnus-Gille/munin-memory för den som är intresserad.) Även om minne verkar vara enkelt att flytta mellan leverantörer just nu, funderar jag allt mer på hur jag kan säkerställa att jag inte behöver förlita mig på att dessa företag exponerar min data i ett portabelt format, utan snarare hur jag ser till att den förblir under min egen kontroll.

  3. Tillgång till LLM:er bör ses som grundläggande infrastruktur — mer som el eller värme än en typisk IT-tjänst. Min respons är att dirigera via tjänster som OpenRouter, som ger mig tillgång till ett brett utbud av leverantörer snarare än en enda. Jag kommer också att fortsätta utvärdera användningsfall som kan betjänas av en lokal LLM — på en Raspberry Pi, min laptop, eller så småningom en kraftfullare server jag äger helt själv. Jag går inte helt “off grid” från flaggskeppsmodeller, men jag behöver aktivt hantera risken att förlora tillgång till intelligens eller till min egen data. Det gör jag redan där jag kan — se till exempel SagaScript, en 100% lokal, gratis, öppen källkods-applikation för tal-till-text på svenska och norska (https://github.com/Magnus-Gille/sagascript).

  4. Jag kommer att noga titta på var det är rimligt att förlita sig på infrastruktur ägd av europeiska eller svenska företag, hostad inom EU eller Sverige. I det sammanhanget gör Berget AI — en svensk startup som bygger suverän AI-infrastruktur på öppna modeller och håller data inom svensk och EU-jurisdiktion — ett viktigt arbete värt att följa.


AI har trätt in på den geopolitiska arenan. Frågor om AI-implementering, avkastning, juridiska begränsningar och styrning måste vara högst på agendan för individer, organisationer och nationalstater. Tillgången till denna teknik kan helt enkelt inte överlåtas till den amerikanska administrationens eller de stora amerikanska teknikföretagens godtycke.