Anthropic lekket sin egen kildekode
Anthropic la ut en oppdatering av kodeverktøyet Claude Code som ved en feil inneholdt hele kildekoden til produktet. En enkelt feilkonfigurert felsøkingsfil pekte til et arkiv med rundt 500 000 linjer script-kode lagret åpent i Anthropics egen skylagring. Innen timer var koden lastet ned, speilet så GitHub og kopiert over 50 000 ganger. Anthropic bekreftet hendelsen og kalte det en menneskelig feil i pakkeprosessen, ikke et sikkerhetsbrudd. Ingen kundedata eller passord ble eksponert.
Kildekoden avslørte ikke bare hvordan Claude Code er bygget, men også uløslede funksjoner og interne modellnavn som konkurrenter nå kan studere fritt. Selskapet som selger seg inn som AI-bransjens mest sikkerhetsbevisste aktør, har lekket sin egen kode to ganger på under ett år. Det viktigste her er ikke selve kildekoden, men spørsmålet om hvilken tillit man kan ha til en leverandørs interne sikkerhetspraksis når man vurderer dem som strategisk AI-partner.
👉Les mer om saken​
Oracle sier farvel til 30.000 ansatte for å betale AI-regningen
Oracle sparket mellom 20.000 og 30.000 ansatte i slutten av mars, rundt 18 prosent av hele arbeidsstyrken. Ansatte i USA, India, Canada og Mexico mottok oppsigelsesmail klokken seks om morgenen uten forvarsel og tilgangen til systemer ble kuttet samme dag. Selskapet tjente penger som aldri før, med en nettofortjeneste som hoppet 95 prosent siste kvartal. Men Oracle har forpliktet seg til å bruke rundt 1.400 milliarder kroner på AI-datasentre og pengene må komme fra et sted.
Oracle er ikke i krise. Oracle omfordeler. De bytter ut menneskelig arbeidskraft med datakraft, og gjør det åpent og uten unnskyldninger. Dette er en tidlig varsellampe om at vi er inne i en ny fase, der store selskaper ikke bare eksperimenterer med AI men faktisk ombygger hele selskapet rundt det.
👉Les mer om saken​
OpenAI, Anthropic og Google slår seg sammen
OpenAI, Anthropic og Google har begynt å dele informasjon med hverandre for å stoppe kinesiske AI-selskaper fra å stjele teknologien deres. Metoden kalles "adversarial distillation" angriperne sender millioner av spørsmål til amerikanske AI-modeller, samler svarene og bruker dem til å trene billigere kopier. Anthropic alene dokumenterte over 16 millioner uautoriserte samtaler fra tre kinesiske selskaper via rundt 24 000 falske brukerkontoer. Samarbeidet skjer gjennom Frontier Model Forum, en non-profit organisasjon som de tre selskapene grunnla sammen med Microsoft i 2023.
Tre selskaper som normalt konkurrerer på alt fra talenter til priser, velger nå å samarbeide åpent. Det sier noe om alvoret i situasjonen. Det viktigste her er ikke at noen kopierer AI-modeller, men at dette er første gang vi ser koordinert forsvar mellom de største AI-aktørene i verden, og at det markerer starten på en ny fase i den globale AI-kappløpet.
👉Les mer om saken​
Anthropics nye AI-modell er så kraftig at de nekter å gi den ut
Anthropic har lansert en forhåndsvisning av sin nye og mest avanserte AI-modell Claude Mythos. Modellen er så god til å finne sikkerhetshull i programvare at selskapet ikke tør slippe den fritt. I stedet har de gitt tilgang til rundt 40 utvalgte selskaper, deriblant Apple, Microsoft, Amazon og Google, som kan bruke den til defensivt sikkerhetsarbeid under initiativet Project Glasswing. På få uker skal Mythos allerede ha avdekket tusenvis av kritiske sårbarheter i store operativsystemer og nettlesere, inkludert en feil i OpenBSD som hadde ligget uoppdaget i 27 år.
Dette er ikke bare en teknisk nyhet. Anthropic sier rett ut at en modell med disse evnene i feil hender kan lamme store selskaper og kritisk infrastruktur. Det de egentlig varsler oss om er at AI-drevet hacking snart kommer til å overgå alt vi har sett. Dette er en tidlig varsellampe om at norske virksomheter må begynne å ta cybersikkerhet langt mer alvorlig enn de fleste gjør i dag.
👉Les mer om saken​
Anthropic stenger Claude-abonnementet
Fra 4. april 2026 kan ikke lenger brukere av Claude Pro og Max bruke abonnementet sitt til å kjøre tredjeparts verktøy som OpenClaw. Vil du fortsette å bruke Claude via slike verktøy, må du betale løpende per bruk på toppen av abonnementet. Bakgrunnen er enkel en enkelt OpenClaw-instans som jobber autonomt hele dagen kan spise opp tusenvis av dollar, mens abonnementet koster 200 dollar i måneden.
Hvor lenge har AI-selskapene egentlig råd til å subsidiere bruken? Flat månedspris mens agenter bruker tusenvis av dollar i regnekraft er ikke en forretningsmodell, det er en introduksjonsrabatt. Jeg tror dette også er starten på spørsmålet om hva AI faktisk vil koste når gratistilbudene og underprisingen tar slutt.
👉Les mer om saken​