Turerna kring konflikten mellan AI-företaget Anthropic och den amerikanska militären fortsätter.
Efter att Anthropic sagt nej till att ändra användaravtalet för sin AI-modell Claude för att passa militärens krav på att de ska kunna användas för massövervakning och autonoma vapensystem, meddelade både president Donald Trump och försvarsministeriet att man slutar göra affärer med företaget.
Open AI smyger in bakvägen
Bara timmar efter att tidsfristen för Anthropic att svara på militärens krav gick ut förra veckan, meddelade Sam Altman, vd för företagets största konkurrent Open AI, att man i sin tur tecknat ett avtal med Pentagon om att ta över Anthropics plats.
Altman hävdade att man lyckats förhandla fram ett nytt avtal, med samma sorts undantag för massövervakning och autonoma vapen som Anthropic krävde.
Avtalet ger samtidigt Open AI tillgång till ny data och nya möjligheter till affärskontrakt eftersom man får tillgång till hemligstämplade system.
Men uttalandet föll inte i så god jord som Altman hade hoppats.
Kritikstorm mot Sam Altman och Open AI
Under dagarna som följde fick Open AI utstå en hel del kritik, bland annat då Altman höll en öppen frågestund online på den sociala medieplattformen X.
Användare, experter och en del av Open AI:s egna anställda uttryckte förvåning och ilska över Open AI:s beslut att sluta avtalet med Pentagon, som man menar underminerar ansvarsfull och etisk användning av AI.
Många kritiker menar att avtalet inte ger det juridiska skydd mot missbruk som Altman hävdar.
Altman försökte försvara sig med att AI har makten att förändra samhället i stort, och han föredrar att företaget har en plats vid beslutsfattarnas bord.
Han har också sagt att anledningen till Open AI:s beslut att samarbeta med militären är att man utgår från att de inte tänker bryta lagen.
Som svar på kritiken meddelade Altman tidigare i veckan i ett inlägg på X att man gjort ändringar i avtalet som borde ge ett bättre juridiskt skydd mot missbruk.
Altman skrev också att företaget hade gjort ett misstag genom att stressa ”för att få ut det här på fredagen”.
”Frågorna är superkomplexa och kräver tydlig kommunikation”, skrev han.
”Vi försökte genuint att trappa ner situationen och undvika ett mycket värre utfall, men jag tror att det bara såg opportunistiskt och slarvigt ut”, fortsatte han.
Företaget har också publicerat ett begränsat utdrag ur avtalet.
Problemet, som många kritiker ser det, är att de här lagarna som man lutar sig mot i flera fall är vaga och inte heltäckande.
Enligt en expert som tekniktidskriften MIT Technology Review talat med ger det publicerade utdraget inte Open AI ”en fristående rätt i Anthropic-stil att förbjuda annars laglig statlig användning”.
Open AI:s version begränsar med andra ord inte användningen så som Anthropics avtal skulle ha gjort.
Sista ordet är inte sagt
Enligt tekniktidningen The Information (bakom betalvägg) ska Anthropics vd Dario Amodei ha kritiserat Altmans förhållande med Trumpadministrationen i ett meddelande till sina anställda förra fredagen.
Enligt Amodei är det hans ovilja att ”smickra Trump i diktatorstil” som har lett till att tjänstemän inom administrationen inte gillar honom och Anthropic. Enligt Amodei ägnar sig däremot Altman åt den här sortens beteende.
Sam Altman valde också att ge en subtil känga åt Anthropic under en teknikkonferens i veckan.
Altman sa vid konferensen att det var dåligt för samhället om företag börjar överge den demokratiska processen ”för att vissa individer inte gillar den person som sitter vid makten för tillfället”.
Det som verkar tydligt är att den här dispyten ännu inte är avslutad.
Som en följd av kontroversen kring avtalet med försvarsministeriet har tusentals användare avinstallerat Open AI:s chattbot Chat GPT, och Anthropics Claude är numera den mest nedladdade gratisappen i Apples onlinebutik.
Samtidigt kvarstår frågor om hur militären och de federala myndigheterna effektivt ska lyckas fasa ut Anthropic och integrera Open AI:s modell.
En potentiell juridisk strid mellan Anthropic och försvarsministeriet väntar också om den senare bestämmer sig för att gå vidare med att klassificera Anthropic som en säkerhetsrisk.