Oljefondet behandler AI som en ny grunnmur
Nicolai Tangen sier at Oljefondet nĂ„ âputter AI inn i alt de gjĂžrâ, og at dette allerede sparer fondet for âmange milliarderâ, sĂŠrlig gjennom bedre og smartere trading og mer effektive arbeidsprosesser. Fondet har satt et ambisiĂžst mĂ„l om at 20 prosent Ă„rlig produktivitetsĂžkning ved hjelp av AI. Samtidig mener Tangen at norsk nĂŠringsliv bruker uforholdsmessig mye tid pĂ„ rammevilkĂ„r og altfor lite pĂ„ praktisk AI-implementering.
Det viktigste her er ikke hvor âgodeâ modellene er, men hvor systematisk du klarer Ă„ ta dem i bruk i kjerneprosessene dine. Oljefondets lĂŠrdom kan oppsummeres enkelt at AI-effekten kommer nĂ„r noen faktisk gjĂžr det til en del av jobben.
đLes mer om sakenâ
Microsoft bekrefter Copilot bug
Microsoft har bekreftet en feil i Microsoft 365 Copilot Chat som gjorde at AI-en kunne oppsummere e-poster merket som konfidensielle. Feilen ble fĂžrst oppdaget 21. januar og pĂ„virket sĂŠrlig e-poster i âSendtâ og âUtkastâ, selv nĂ„r virksomheter hadde satt opp regler (DLP) som skulle hindre slik behandling. Microsoft sier de startet utrulling av en fiks tidlig i februar, men har ikke oppgitt hvor mange kunder som ble rammet.
Dette en pĂ„minnelse om at âpolicyâ ikke alltid betyr beskyttelse i praksis. NĂ„r en AI-funksjon er tett integrert i standardverktĂžy, kan feil fĂ„ stor rekkevidde fĂžr noen rekker Ă„ reagere.
đLes mer om sakenâ
Snarveier i AI-rushet
Under India AI Impact Summit i New Delhi ble Galgotias University bedt om Ä fjerne standen sin etter at en representant presenterte en robot-hund som universitetets egen innovasjon. Kort tid etter identifiserte folk pÄ nett den som en kommersiell robot fra Unitree Robotics i Kina. Universitetet beklaget senere og sa at representanten var feilinformert.
Dette et tydelig eksempel pÄ at AI-tillit ikke skapes av demoer, men av dokumentasjon og god kommunikasjon. Det vil nok dukke opp flere eksempler pÄ som vil ta snarveier i AI-rushet.
đLes mer om sakenâ
Pentagon vil ha friere AI-bruk
IfÞlge Axios vurderer Pentagon Ä avslutte samarbeidet med Anthropic fordi selskapet nekter Ä fjerne enkelte bruksbegrensninger pÄ Claude-modellen. Pentagon skal presse fire store AI-leverandÞrer til Ä godta at modellene kan brukes til «alle lovlige formÄl», inkludert vÄpenutvikling, etterretning og operasjoner pÄ slagmarken. Anthropic sier pÄ sin side at dialogen har handlet om prinsippielle grenser, som forbud mot fullt autonome vÄpen og massetilsyn av egen befolkning, ikke konkrete pÄgÄende operasjoner.
Dette en tidlig varsellampe om hvor fort âAI policyâ gĂ„r fra Ă„ vĂŠre et internt dokument til Ă„ bli en forhandlingsbrikke i store kontrakter. Jeg tror dette ogsĂ„ er starten pĂ„ spĂžrsmĂ„let «hvem har ansvar nĂ„r AI brukes feil».
đLes mer om sakenâ
Perplexity rygger fra annonser
Perplexity en av de mest profilerte âAI-sĂžkâ aktĂžrene skal etter det som rapporteres trappe ned annonser i produktet sitt, fordi ledelsen frykter at annonser ved siden av svarene vil svekke tilliten. Perplexity sier i praksis at AI-svar mĂ„ oppleves som uavhengige. Med annonser ved siden av svarene kan brukeren begynne Ă„ lure pĂ„ hva som er sant, og hva som er salg.
Samtidig ser vi at bransjen drar i to retninger. OpenAI tester annonser i gratisversjonen av ChatGPT. Anthropic gÄr motsatt vei og sier tydelig at de ikke vil ha annonser i Claude.
đLes mer om sakenâ