Anthropic brøt sitt eget løfte
Anthropic lenge regnet som den mest sikkerhetsorienterte aktøren i bransjen har fjernet kjernen i sin sikkerhetsavtale. Siden 2023 hadde de lovet å stoppe all utvikling av nye AI-modeller dersom de ikke kunne garantere at sikkerheten var god nok. Den løftet er nå borte. Den nye policyen sier i stedet at Anthropic kun vil sette på pause dersom de anser seg som ledende i AI-kappløpet og risikoen for katastrofe er betydelig. Endringen kom forrige uke som det ble kjent at den amerikanske forsvarsministeren hadde presset Anthropic til å gi militæret uhindret tilgang til Claude.
Dette er en påminnelse om at selvstyrt ansvarlighet i en konkurransepreget industri har klare grenser. Anthropics begrunnelse er logisk – om alle konkurrenter ignorerer sikkerhet, straffes den som holder igjen – men det setter fingeren på noe viktig: hvem passer egentlig på at AI utvikles forsvarlig, når selskapene ikke klarer det selv? Jeg tror dette er starten på en nødvendig diskusjon om behovet for felles, bindende regler på tvers av landegrenser.
👉Les mer om saken​
Samler seg mot AI-deepfakes
Datatilsynet har sammen med datatilsynsmyndigheter fra 61 land har gått sammen om en felles uttalelse mot AI-verktøy som lager realistiske men falske bilder og videoer(deep fakes). Bakgrunnen er blant annet AI-assistenten Grok, som nylig ble brukt til å generere seksualiserte og voldelige bilder av virkelige mennesker, inkludert barn, og publisere dem direkte på X. Kravene til selskapene er klare, sett inn tekniske sperrer og vær åpne om hva systemene kan gjøre.
Regulatorene verden over er ferdig med å vente på at bransjen skal ordne opp selv. For norske bedrifter som bruker AI-verktøy som håndterer bilder av ansatte eller kunder, er dette en påminnelse om at personvernreglene gjelder også for AI-generert innhold.
👉Les mer om saken​
AI-en som gjør jobben mens du sover
Perplexity, selskapet mange kjenner som et smartere alternativ til Google-søk, har lansert noe de kaller "Computer". Det er ikke en fysisk maskin, men en AI-plattform som kan fullføre hele prosjekter fra start til slutt. Du beskriver hva du vil ha og systemet planlegger, fordeler arbeidet og kjører i gang uten at du trenger å gjøre noe mer. Det kobler seg til verktøy du allerede bruker som Gmail, Teams og GitHub og kan jobbe videre mens du sover.
Det smarte er at "Computer" ikke låser seg til én AI-modell. Den velger selv hvem som gjør hva Claude tar seg av resonnering, Gemini dykker ned i forskning, Grok løser raske oppgaver og ChatGPT 5.2 håndterer store tekstmengder. Perplexity fungerer som dirigenten som setter de riktige folkene på riktig jobb.
Det viktigste her er ikke at Perplexity lanserer et nytt produkt, men at bransjen nå tydelig beveger seg fra AI som svarer til AI som utfører. Det er en påminnelse om at spørsmålet ikke lenger er "kan AI hjelpe meg med dette?" men "hvilke oppgaver skal jeg faktisk bruke tid på selv?"
👉Les mer om saken​
AI-spionasje i praksis
Anthropic avslørte denne uken at tre kinesiske AI-selskaper, DeepSeek, Moonshot AI og MiniMax, gjennomførte koordinerte angrep mot deres AI-modell Claude. De opprettet over 24 000 falske kontoer og gjennomførte 16 millioner samtaler for å "lære av" Claude og overføre kunnskapen inn i sine egne modeller. Tenk på det som å sende tusenvis av anonyme spioner inn i en skole for å kopiere ned alt læreren sier, og så starte sin egen skole basert på notatene. Særlig påfallende er det at DeepSeek blant annet brukte Claude til å lage sensursikre svar på politisk sensitive spørsmål, trolig for å trene sine egne modeller til å unngå slike temaer.
Dette er en påminnelse om at AI-kappløpet ikke bare handler om hvem som har de smarteste forskerne eller mest regnekraft, men også om hvem som er villig til å ta snarveier. Jeg tror dette også er starten på spørsmålet norske bedrifter bør stille seg: Hvilke data og kompetanse fra vår virksomhet kan potensielt havne i feil hender når vi bruker AI-tjenester?
👉Les mer om saken​
Studentene stoppet UiOs AI-plan
Universitetet i Oslo oppfordret studenter i faget Mekatronikk til å bruke AI i en obligatorisk oppgave og sa rett ut at AI kunne brukes til å lære pensum «i rekordfart». En anonym student reagerte og tipset nettavisen Kode24. Resultatet? UiO fjernet alle AI-referanser fra resten av kurset. Over 90 prosent av norske studenter bruker nå AI i studiene, men et mindretall får ordentlig opplæring i hvordan det bør brukes.
Det viktigste her er ikke om AI bør brukes i undervisningen det bør den men at vi mangler klare rammer for hvordan. Dette er en påminnelse om at det ikke holder å si «bruk AI» uten å forklare hva som faktisk fremmer læring og hva som bare erstatter den.
👉Les mer om saken​