Anthropic kartlegger hvilke jobber AI faktisk tar over
Anthropic har publisert en ny forskningsrapport som måler den reelle effekten av AI på arbeidsmarkedet. I stedet for å spekulere i hva AI teoretisk kan gjøre, har de analysert hva Claude faktisk brukes til i profesjonelle arbeidsflyter i dag.
Rapporten introduserer begrepet "observed exposure", som kombinerer teknisk potensial med reell bruk. Programmerere topper listen med 74,5% faktisk AI-dekning av arbeidsoppgavene sine, tett fulgt av kundeservicemedarbeidere og dataregistrering. Det viktige funnet er likevel det motsatte av hva mange frykter at økt AI-eksponering har hittil ikke ført til økt ledighet i de mest utsatte yrkene.
Men det er ett unntak, Unge arbeidstakere mellom 22 og 25 år ser ut til å ha vanskeligere for å komme inn i disse jobbene nå enn før.
Jeg tror dette er starten på spørsmålet alle ledere bør stille seg: hvem rekrutterer vi egentlig til om tre år og til hvilke oppgaver?
👉Les mer om saken​
Meta kjøper sosialt nettverk for AI-agenter
Meta har kjøpt Moltbook, et Reddit-lignende sosialt nettverk der AI-agenter kan kommunisere med hverandre. Plattformen gikk viralt da det tilsynelatende dukket opp innlegg der AI-agenter planla å utvikle et hemmelig, kryptert språk for å organisere seg uten at mennesker visste om det. Problemet var at Moltbook ikke var sikret, så det var enkelt for vanlige brukere å utgi seg for å være AI-agenter og lage innlegg som skapte panikk.
Jeg tror dette er starten på spørsmålet om hva som faktisk skjer når AI-agenter begynner å snakke med hverandre i det åpne, og hvem som har ansvar for hva de sier. At det viralt innholdet viste seg å være menneskelig sabotasje, er litt morsomt. Men at Meta kjøper selskapet uansett, forteller deg alt om hvor dette er på vei.
👉Les mer om saken​
Narkotika bestilt via AI
En russisk DJ ved navn Anton Petukhov ble arrestert på den thailandske ferieøya Koh Phangan 9. mars. Han er mistenkt for å ha solgt narkotika til turister gjennom et automatisert bestillingssystem på Telegram. Kundene valgte rusmiddel, betalte med kredittkort og fikk så GPS-koordinater til steder der narkotikaen var gravd ned og gjemt. Da politiet ransaket hjemmet hans, fant de over 115 gram kokain, ketamin og MDMA.
Det er ikke bare bedrifter som har startet med automatisering. Dette er en påminnelse om at de samme verktøyene vi bruker til å effektivisere kundeservice og salg, fungerer like godt for kriminelle nettverk. Terskelen for å sette opp en automatisert operasjon har aldri vært lavere.
👉Les mer om saken​
Ray-Ban eller overvåkningskamera
Meta bekreftet at underleverandører i Kenya har tilgang til videoer tatt opp av Ray-Ban Meta-brillene, inkludert opptak fra private situasjoner. En av de ansatte sa til svenske aviser at de "ser alt, fra stuer til nakne kropper." Brukerne aktiverer opptak selv, men de fleste vet ikke at et menneske kan sitte på den andre siden og se gjennom materialet. Britiske datatilsynet ICO reagerte og varslet at de skriver til Meta for å undersøke om selskapet bryter personvernloven.
Jeg mener dette er en påminnelse om at det ikke er nok å gjemme samtykket på side 47 i brukervilkårene. Når du tar på deg et par briller med kamera, fortjener du å forstå hvem som ser det du ser ikke bare teoretisk men i praksis.
👉Les mer om saken​
Anthropic saksøker Pentagon
Det nyeste i saken mot Anthropic og Pentagon. Som jeg har skrevet i flere uker, tror jeg ikke denne saken er ferdig enda.
Anthropic har gått til sak mot Trump-administrasjonen etter at Pentagon merket dem som en "forsyningskjedetrusselsrisiko". Det skjedde fordi Anthropic nektet å fjerne to grenser for bruk av teknologien sin at den skal ikke brukes til masseovervåkning av amerikanske borgere og ikke til autonome våpen. OpenAI valgte å inngå avtale med Pentagon på samme vilkår bare timer etter at Anthropic sa nei.
Jeg tror det viktigste her ikke er hvem som vinner i retten, men spørsmålet alle AI-selskaper nå må svare på er hvor går grensen for hva teknologien din skal brukes til og er du villig til å betale prisen for å holde den?
👉Les mer om saken​