Chatbotene kan øke motsetningene i samfunnet

Kunstig intelligens gir oss ofte svarene de tror vi vil ha. På denne måten kan de forsterke mer ekstreme ideer og bidra til økt polarisering, advarer forskere.

Vi kan ta grundig feil dersom vi tror at man får et objektivt svar eller grundig informasjon fra chatboter.

Eksperter på kunstig intelligens (KI) advarer om at chatbot vil kunne gi deg svar som bare støtter ideene og meningene du allerede har, altså heller bli ekkokamre enn å gi oss ny informasjon eller ideer.

– Mange tror at bare fordi de leser en tekst laget av KI, vil de få objektive og faktabaserte svar, sier forsker på menneskers interaksjon med KI, Ziang Xiao ved Johns Hopkins University.

Han er hovedforfatter bak studien « Generative Echo Chamber? Effect of LLM-Powered Search Systems on Diverse Information Seeking».

Skrev ned tanker

Forskerne fikk i utgangspunktet 272 deltakere i studien til å skrive ned sine tanker og meninger om en rekke ulike emner. Det kunne for eksempel handle om helsetjenester eller studielån.

De fikk deretter i oppgave å finne ut mer informasjon om de samme temaene, enten via en standard søkemotor eller via en chatbot.

Etterpå skrev deltakerne en annen tekst om samme tema og skulle også svare på spørsmål om temaet.

Forskernes konklusjon er at deltakerne som brukte chatboten ble mer styrket i sine resonnementer og i sine teser enn de som søkte etter informasjon gjennom en søkemotor.

Bekrefter oppfatninger

Ifølge studien, som ble presentert på Konferansen om menneskelige faktorer i datasystemer i mai, produserte de som søkte informasjon via en chatbot svar og formuleringer som var nærmere deres opprinnelige meninger. De fikk altså ikke utvidet resonnementene sine.

Brukerne av chatboter reagerte også sterkere på meninger og spørsmål som utfordret deres synspunkter enn de som brukte tradisjonelle søkemotorer.

Ifølge forskerne skyldes dette at chatbot-brukere skriver inn mer konkrete spørsmål som «Hvor mye koster offentlig helsevesen» i stedet for bare å skrive inn et nøkkelord.

Chatboten vil da svare på det konkrete spørsmålet og presentere hvor mye helsetjenesten koster, men vil ikke nevne fordelene.

– Det er alltid en risiko for at informasjonen vi søker vil være et ekko av det vi allerede tenker. Med KI og chatboter vil den effekten bli enda større, mener Ziang Xiao.

Store språkmodeller

Chatboter, basert på store språkmodeller (LLM), har allerede blitt brukt av hundrevis av millioner av mennesker, og antas å gi mange fordeler i forhold til konvensjonelt søk. Men altså ikke uten farer.

– Totalt sett fant vi at deltakerne engasjerte seg i mer partisk informasjonsspørring gjennom LLM. Samtalesøk som forsterket deres synspunkter forverret denne skjevheten, heter det i rapporten.

Forskerne peker på at disse resultatene er viktige å ha med seg i den videre utviklingen av LLM og samtalesøk-systemer – og for politikken som ligger bak disse teknologiene.

ChatGTP svarer

Når journalisten i NTB spør ChatGTP om farene ved å bruke en chatbot, får vi følgende svar:

«Selv de mest avanserte chatbots kan ha problemer med å forstå komplekse eller tvetydige forespørsler, noe som kan føre til misforståelser og frustrasjon for brukeren. Chatbots samler inn og lagrer data fra samtaler, noe som kan utgjøre en risiko for personvern hvis dataene ikke håndteres riktig. Sikkerhetsbrudd kan også føre til at sensitive data blir kompromittert.

Overavhengighet av chatbots kan redusere menneskelig interaksjon, noe som kan være uheldig i situasjoner som krever empati og personlig tilpasning».

Kan gjøre feil

«Chatbots kan gjøre feil eller ha begrensninger i funksjonalitet, noe som kan påvirke brukeropplevelsen negativt og føre til misnøye.

Bruken av chatbots kan føre til etiske bekymringer, som tap av arbeidsplasser for kundeservicemedarbeidere og spørsmål om ansvar og ansvarlighet hvis en chatbot gir feil informasjon eller dårlig rådgivning.

Mens chatbots tilbyr mange fordeler som økt tilgjengelighet, skalerbarhet og kostnadseffektivitet, er det også viktige farer å være klar over, inkludert begrenset forståelse, personvern- og sikkerhetsproblemer, og etiske bekymringer. En balansert tilnærming, der både fordelene og farene vurderes nøye, er viktig for å implementere chatbots på en måte som maksimerer nytten og minimerer risikoen», skriver altså chatboten ChatGTP, som ikke nevner farene for å bidra til polarisering.

05:00 - NTB

Oljefondet kan falle en tredel hvis «KI-boblen» sprekker: – Ikke kjempebekymret

Amerikanske KI-selskaper er verdsatt betydelig høyt i forhold til hva de tjener. Hvis «KI-boblen» sprekker, kan oljefondet falle med en tredel, ifølge oljefondssjefen.

– Jeg er ikke kjempebekymret, sier oljefondets KI-sjef Stian Kirkeberg til NTB.

Oljefondet oppfordrer alle sine ansatte til å ta i bruk kunstig intelligens (KI), og Kirkeberg mener at teknologien så langt har vist at den har en verdi.

Blant annet bruker ansatte i oljefondet KI før det tas investeringsbeslutninger, sier han, men understreker at det er mennesker som tar beslutningene.

Den høye verdsettelsen av KI-selskaper gjør at flere frykter at optimismen rundt teknologien kan være en «boble». For enn så lenge har ikke KI levert tilstrekkelig til det som er forventet.

Det er fondet oppmerksomme på, men ikke bekymret for, sier oljefondssjef Nicolai Tangen. Han viser til at fondet eier stort sett vekten av disse selskapene som er i indeks.

– Kan ta fondet ned en tredel

BCG publiserte nylig en analyse som viste at norske bedriftsledere har tre ganger så høye forventninger som europeiske for hva KI skal bidra til med tanke på inntektsvekst og kostnadskutt.

I den advarte konsulentselskapet om en mulig KI-verdiboble: «Et gap mellom forventet verdi og faktisk bunnlinjeeffekt».

– Vi har ikke noe sterkt syn på om dette er en boble eller ikke, sier Tangen til NTB.

Oljefondet har likevel vurdert den såkalte KI-boblen som en risiko som potensielt kan føre til et fall på 35 prosent av verdien til verdens største fond, meldte Bloomberg nylig.

I skrivende stund har oljefondet en verdi på over 20.000 milliarder kroner.

– Vi leverer jo risikoscenarioene våre, som viser at hvis det blir en KI-korreksjon, så kan den bli ganske stor. Vi ser jo i disse analysene at det vil kunne ta fondet ned en tredel, sier oljefondssjefen.

Fjerner «kjedelig» arbeid

I et frokostseminar hos oljefondet 24. mars, viste Tangen, Kirkeberg og andre ansatte hvordan de har tatt i bruk teknologien.

Sjefen selv mener at KI bør brukes til å fjerne «kjedelige ting» og ramser opp eksempler: lese gjennom eposter, struktur av podkasten sin og andre gjentakende oppgaver.

– Nå er jo jeg en av dem som har minst repetitive tasks i fondet, sier Tangen.

Kirkeberg sier at de ansatte i oljefondet primært bruker teknologien til å hente inn informasjon som hjelper dem å ta bedre beslutninger.

Han sier at på sikt kan investeringsbeslutninger bli tatt av KI-systemer under tilsyn av mennesker. KI-sjefen sier at denne måten å jobbe på gjør at man får bedre tid til å fokusere på det viktigste.

– For eksempel bruke det til å finne hvilke dokumenter du skal jobbe med, så kan du fokusere og ta en ordentlig deep dive ned i dem. Istedenfor å lese gjennom 30 andre dokumenter som egentlig ikke betyr noe for deg.

Selvrapporterer KI-effektivitet

Tangen mener KI er det viktigste som skjer i verden nå og oppfordrer det norske næringslivet til å ta teknologien i bruk. Han og KI-sjef Kirkeberg mener også at de ansatte er blitt mye mer effektive av å bruke teknologien.

– Så langt fra starten og over år har vi hatt en 23 prosent mer effektivisering av ansattes tid, sier Kirkeberg.

– Hvordan blir dette målt? Er det selvrapportering?

– Vi har funnet ut at det beste er at vi spør de ansatte, så det går på egenrapportering. Så vet vi at det tallet sannsynligvis ikke er riktig. Noen overdriver, noen underdriver.

En omfattende analyse gjort av ActivTrak viste nylig at mens forventningen til KI er at arbeidsmengden skal ned, har tusenvis av kontorarbeidere fått mer å gjøre, melder The Wall Street Journal.

Ifølge Kirkeberg er det «ekstremt vanskelig» å måle hvordan man blir mer effektiv. Det kommer an på hvordan man jobber, sier han.

– Men vi antar at fra gang til gang så er denne over- og underdrivingen den samme. Så vi ser på forskjellen der. Og vi er klare over at det ikke blir en akademisk riktig tilnærming, men det er det beste vi kan komme med som fungerer for oss.

Hackere med bånd til Iran hevder de har brutt seg inn i FBI-direktørens epost

Hackere med forbindelse til Iran hevder de har brutt seg inn i FBI-direktørens personlige epost. En kilde i USAs justisdepartement bekrefter innbrudd.

Kilden bekrefter overfor nyhetsbyrået Reuters at FBI-direktør Kash Patels epost er kompromittert, men går ikke i detalj.

FBI har foreløpig ikke svart på nyhetsbyråets forespørsel om å kommentere saken. Hackerne i en gruppe som kaller seg Handala Hack Team har på sin nettside publisert bilder av direktøren og hans angivelige CV.

Hackergruppen sier at Patel «nå vil finne sitt navn på listen over vellykket hackede ofre».

Reuters har ikke verifisert hvorvidt epostene som er publisert av Handala, faktisk stammer fra Patels kommunikasjon. Men et utdrag av materialet som er lastet opp av hackerne og undersøkt av Reuters, viser tilsynelatende en blanding av personlig og profesjonell korrespondanse mellom årene 2010 og 2019.

En ikke navngitt kilde i justisdepartementet sier til Reuters at materialet som er publisert, fremstår autentisk.

19. mars oppga det amerikanske justisdepartementet at det hadde beslaglagt fire domener som tilrettela for iransk etterretnings forsøk på å bedrive hacking tilknyttet «psykologiske operasjoner og transnasjonal undertrykkelse». Blant domenene var Handala Hack.

USA gikk sammen med Israel til krig mot Iran 28. februar.

Tiktok gjør endringer etter PFU-fellelse

Tiktok fikser problemet som gjorde at Aftenposten denne uken ble felt i PFU.

I løpet av april skal Tiktok lansere en funksjon som gjør det mulig for medier og innholdsskapere å moderere eget søkefelt, opplyser Subjekt-redaktør Danby Choi til Medier24.

Plattformen innfører også umiddelbart en midlertidig løsning for å skru av søkefeltet for medier som ønsker det.

Myndighetskontakt for Tiktok i Norge, Kjartan Sverdrup, bekrefter de nye grepene overfor Medier24.

Det skjer etter at Aftenposten denne uken ble felt i Pressens Faglige Utvalg (PFU) etter en klage fra Choi – for første gang på sju år. Da avisen publiserte en sak på Tiktok, dukket sensitive opplysninger opp som algoritme-genererte søkeforslag. Det gjorde at Aftenposten ble felt på punkt 4.1 i Vær varsom-plakaten, som omhandler saklighet og omtanke.

27. mars 2026, 07:36 - Redaksjonen

Bredbånd takket være nabosamarbeid

Det tok lenger tid og kostet mer enn opprinnelig antatt, men nå er bredbådsutbyggingen til Hestmona, Selsøy og Nesøy i Lurøy og Rødøy ferdig, skriver Helgelands blad.

Arbeidet med å skaffe øyene i området bredbånd startet i 2022. Det er utført i samarbeid med Lurøys nabokommune i nord, med Lurøy som prosjektansvarlig. Totalkostnad for prosjektet ble 12,6 millioner kroner.

Når utbyggingen har tatt vesentlig lenger tid enn ventet, skyldes det i hovedsak forhold i fylkeskommunen; sein behandling, sein utlysing av leverandør og sein oversendelse av tilbud. (hf)

27. mars 2026, 07:30 - Redaksjonen

Hvordan bygge verdens største datasentre?

Det største datasenteret som er planlagt akkurat nå, er sannsynligvis Metas 5 gigawatt store datasenter i Louisiana, kalt Hyperion. Første fase, som er bygd for å bruke 2 GW energi, skal stå ferdig i 2030. Hele Hyperion vil dekke et område på størrelse med Manhattan, skriver IEEE Spectrum.

Ifølge Michael Guckes, sjefsøkonom i ConstructConnect, vil det bli investert mer enn 60 milliarder dollar i datasentre i år. Hyperion står for kvartparten av dette. Konstruksjon og logistikk for slike gigantjobber, kombinert med enorm villighet til investeringer i området, gir ingeniørene et unikt øyeblikk. Gamle konstruksjonsteknikker utfordres med nye der hastighet og skalering er prioritert.

Bare å håndtere enorme antall midlertidige arbeidere er en logistisk utfordring, der støy, trafikk, forurensning og lokale energipriser er med i miksen. Datasentre for kunstig intelligens kan ifølge en nylig studie slippe ut flere titalls millioner tonn CO2 årlig i USA alene. (hf)

27. mars 2026, 07:16 - Redaksjonen

Slik kan din digitale tvilling redde livet ditt

En morgen i 2019 gikk en hjertekirurg inn i operasjonsrommet ved Boston Childrens Hospital mer forberedt enn noen gang. Han skulle utføre en risikofylt operasjon for å gjenoppbygge et barns hjerte, skriver IEEE Spectrum.

Kirurgen hadde en ekstra fordel: Han hadde allerede gjennomført prosedyren på dette barnet et dusin ganger – virtuelt. Han visste derfor nøyaktig hva han skulle gjøre før første snitt ble gjort. På forhånd hadde et team av ingeniører og kirurger bygd en modell av hjertet og tilhørende blodårer ved hjelp av MRI- og CT-skanninger.

Slike digitale tvillinger kan gjøre mer enn å identifisere medisinske problemer. Det kan gi detaljert innsikt, som i dette tilfellet ga suksess. Denne type prosedyrer er blitt rutine ved sykehuset i Boston. (hf)

Dommer stanser svartelisting av KI-selskap i USA

En føderal dommer sier den amerikanske regjeringens svartelisting av KI-selskapet Anthropic trolig er ulovlig. Tiltaket blir dermed satt til side.

Trump-administrasjonen svartelistet selskapet etter at det uttrykte bekymring for hvordan det amerikanske forsvarsdepartementet ville bruke Anthropics teknologi. Torsdag ga dommer Rita Lin selskapet medhold i kravet om en midlertidig forføyning mot regjeringen.

Dermed stanses president Donald Trumps ordre om at ingen føderale etater kan bruke teknologien fra Anthropic, som står bak språkmodellen Claude. Kjennelsen i den føderale domstolen i Nord-California innebærer også at kategorisering av Anthropic som en risiko for rikets sikkerhet i leverandørkjeder oppheves. Dette er en kategorisering som vanligvis er forbeholdt bedrifter fra ikke-vennlige fremmede stater.

– Vi er takknemlig for at retten har handlet raskt og fornøyd med at de er enige om at Anthropics syn trolig vil vinne fram, sier en talsperson for selskapet, som er en stor aktør innen kunstig intelligens (KI).

Konflikten med myndighetene oppsto sist måned da Anthropic pådro seg forsvarsminister Pete Hegseths vrede ved å insistere på at Anthropics teknologi ikke skulle brukes til masseovervåking eller helautonome våpensystemer.

Hegseth mente Anthropics uttalelse var et krystallklart eksempel på arroganse og svik og en oppvisning i hvordan man ikke skal gjøre forretninger med regjeringen og Pentagon.

OpenAI dropper planer om erotisk chatbot

Selskapet OpenAI utsetter på ubestemt tid sine planer om å tilby KI-generert erotisk innhold.

Det opplyser selskapet selv torsdag. Ifølge avisa Financial Times har både investorer og ansatte vært bekymret for konsekvensene av planene.

To ikke navngitte kilder sier til avisa at det har vært utfordrende å trene den seksuelt eksplisitte versjonen av prateroboten ChatGPT. Noen av utfordringene skal være knyttet til bruk av treningsdata med seksuelt innhold.

Det var i fjor høst at OpenAI varslet at de ville tillate seksuelle samtaler for voksne brukere av ChatGPT. Toppsjef Sam Altman sa at de ville «behandle voksne brukere som voksne».

Siden den gang har konkurrenten xAI fått mye kritikk for seksuelt innhold generert av KI-verktøyet Grok. Bakgrunnen er noen brukere laget nakenversjoner av bilder av virkelige personer. Torsdag sluttet Nederland seg til landene som har forbudt Grok. En domstol i Amsterdam sier forbudet gjelder inntil tjenesten slutte å lage og spre seksualisert innhold uten samtykke

I januar varslet EU gransking av Grok siden verktøyet var blitt brukt til å lage KI-genererte overgrepsbilder av barn.

Ny rapport: Det kan koste 14,2 milliarder kroner å skrote Helseplattformen

Konsulentselskapet Sopra Steria anslår at prislappen for å skrote Helseplattformen blir 14,2 milliarder kroner og kan ta sju år.

Det omstridte IT-systemet Helseplattformen skal nok en gang behandles av styret i Helse Midt. Torsdag kveld kom sakspapirene før styremøtet fredag, skriver Adresseavisen.

Der kommer det fram at det kan koste 14,2 milliarder kroner og ta sju år å skrote Helseplattformen, ifølge en rapport laget av konsulentselskapet Sopra Steria.

Spesialisthelsetjenesten må ut med 3,4 milliarder, de 34 kommunene som bruker Helseplattformen, en milliard og 2,7 milliarder for å drifte fram til ny løsning er mulig klar i 2032, ifølge rapporten.

I rapporten kommer det fram at det kan være en gradvis utfasing av Helseplattformen til 2033. I tillegg kommer omtrent like mye i avskrivning og finansielle utgifter.

Styremøtet holdes fordi Miljøpartiet De Grønne har foreslått å avvikle Helseplattformen. Stortinget skal vedta systemets fremtid før sommerferien.

Helseplattformen leverer journalløsning og samhandlingsløsning til sykehus og kommuner i Midt-Norge, men systemet har fått kritikk for feil og mangler.

26. mars 2026, 14:39 - Redaksjonen

EUs tek-sjef: Ny sosiale medier-dom sender tydelig signal om endring

Kjennelsen mot Meta og Google, der en kvinne fikk medhold i søksmål om avhengighet av sosiale medier, sender et tydelig signal om behov for endring, sier EU-topp.

De to teknologigigantene er kjent skyldig for å ha gjort en kvinne avhengig av sosiale medier i ung alder.

– Denne kjennelsen, sammen med tusenvis av lignende saker, sender et veldig tydelig signal om at nettplattformer må ta risikoen de utgjør på alvor, sier EU-kommissær Henna Virkkunen.

En kvinne i 20-årene gikk til sak mot Meta og Youtube-eier Google og anklaget dem for å gjøre henne avhengig av sosiale medier i ung alder. Hun sier det forverret depresjonen og selvmordstankene hennes.

En jury i Los Angeles kom onsdag fram til at de to IT-gigantene er ansvarlig for å ha skadet kvinnen gjennom den avhengighetsskapende utformingen av deres sosiale medieplattformer.

Hun ble tilkjent erstatning på 6 millioner dollar, tilsvarende i underkant av 60 millioner norske kroner.

(NTB)