Sådan styres din adgang til viden på nettet af kunstig intelligens. Kunstig intelligens / AI (artificial intelligence) er for alvor kommet på dagsordenen de sidste år – ikke mindst nu med den lette tilgang til at bruge værktøjer som f.eks. ChatGPT og andre AI-chatrobotter.
Over 400 deltog i konferencen “Sådan styrer techgiganterne og kunstig intelligens din adgang til viden på nettet” den 3. april 2024 i en af Københavns Universitets større auditorier – og derudover var ca. 900 med via livestreaming.
Konferencen var arrangeret af Danmarks Nationalleksikon Lex.dk i samarbejde med Danmarks Biblioteksforening, Danske Universiteter, Danske Professionshøjskoler, Danske Gymnasier og Danske Medier.
Hvad siger borgere og eksperter?
To ud af tre er bekymrede for, at de får et skævt billede af aktuelle begivenheder i Danmark, når det indhold, de præsenteres for online, er bestemt af algoritmer (Fig. 8). Det viser en undersøgelse fra det nye Center for sociale medier, tech og demokrati (Slots- og Kulturstyrelsen): Danskernes holdning til den demokratiske samtale på online platforme.
Centerchef Mads Bramsen indledte og præsenterede undersøgelsen. Det er også den overvejende opfattelse, at offentlige samtaler på online platforme er præget af en hård tone. Og der er tilslutning til at moderere diskussioner på online platforme.
Muligheden for at bruge ChatGPT til opgaveløsning har betydet større fokus på snyd i skolen, viser arbejdet i Undervisningsministeriets ekspertgruppe om ChatGPT, fortalte Birgitte Vedersø. Denne udfordring vil enten blive et mareridt med meget stort fokus på snyd, som vil frustrere alle – eller være en mulighed for gentænkning. Det kendte format for måden opgaver stilles på skal nødvendigvis laves om. Undervisningen skal træne i at spørge og finde svar – og udgangspunktet skal være undervisningen og ikke prøverne. Snydedagsordenen må ikke sættes først.
Fra Google til AI
David Runciman, professor, Cambridge University kendt for sin How Democracy Ends og senest i 2023 The Handover: How we gave Control of Our Lives to Corporations, States and AIs gav i sit online-oplæg en historisk baggrund. Fra 1990’ernes tro på, at nettet var en demokratisk ting.
Søgemaskiner er gode, hvis man ved, hvad man søger efter. Hvis man søger efter generelle spørgsmål, går det nemt galt. Der er ganske enkelt for meget information af svingende kvalitet. Forskellen på søgemaskinernes hidtidige funktion og funktionerne i ChatGPT m.v. er, at en søgemaskine skanner nettet for matchende informationskilder og giver os svar alt efter algoritmerne baseret vores tidligere søgemønstre – mens AI-funktionerne som produkter er baseret på det, som produkterne er blevet fodret med/indhøstede tekster/kilder matchende brugerens algoritmer, så AI-robotter fremstår som langt bedre til at besvare ens generelle spørgsmål – og til at komprimere informationen til læselig tekst; de henviser ikke blot korte tekstuddrag og links. Men det betyder også, at indhøstede teksters eventuelle fejlagtige information og konspirationsteorier ofte slår igennem i svar fra ChatGPT m.v.
Søgemaskiner og værdibaserede resultater
Thore Husfeldt, professor ved IT-Universitetet i København, stod for overblikket over udviklingen af søgemaskinerne fra 1995 til i dag. Første generation byggede på statiske og ikke-kommercielle sider linket sammen med URL’er med en intention om at vise “Hvad er der”.
Med Google skete der fra 1998 et skifte til “Hvad er godt” baseret på side-rankering ud fra omfanget af andre siders link til en web-side. Altså en objektiv metode som gav samme resultat for alle.
Næste trin var skiftet til “Hvad er godt for mig! ”, hvor brugerens tidligere søgninger, alder m.m. bruges til at vise først, hvad algoritmerne beregner er mest interessant for brugeren. Dvs. et skifte fra objektiv til subjektiv.
Med AI tages skridtet videre til “Hvad er godt for dig!”, idet ikke ønsket information ikke vises. Et eksempel, som Thore Husfeldt viste, var, at et ønske om at få et billede op af en “hvid programmør” blev afvist, mens et ønske om at få lavet et billede af en “sort programmør” prompte blev effektueret. Dvs. at resultatet bliver en ideologisk motiveret ‘sandhed’, som adskiller sig fra den faktuelle sandhed – værdibaserede resultater.
Som Dirk Lewandowski, professor, Hamburg University of Applied Sciences, herefter understregede: Søgemaskiner træffer beslutninger om, hvad der skal inkluderes, ekskluderes og vises i søgning. Mængden af automatisk skabte data betyder, at denne kuratering bliver mere og mere nødvendig for at søgemaskinerne i det hele taget kan levere brugelige resultaterne.
Tendenser, sprogmodeller og troværdighed
Christiane Vejlø, digital trendanalytiker, understregede problemet med at AI-generede tekster ofte er tendentiøse. Der mangler det kritiske filter, som et menneske ind over kan give. Resultaterne er simpelthen for dårlige. Og når algoritmerne justeres til at kompensere, så er der mange eksempler på, at resultatet bliver til historieforfalskning. Eksempler på AI-generede billeder, hvor vikinger har sort hud og paver er kvinder. Kildekritik har altid været vigtigt, men AI gør kildekritik ekstremt vigtig. Hun har skrevet bogen Argumenter For Mennesker (2023), der er en filosofisk men lettilgængelig gennemgang af forskellen på mennesker og maskiner. Endelig argumenterede data-etisk rådgiver Pernille Tranberg for, at der er brug for mange sprogmodeller. Hun nævnte Firefly fra Adobe, der er trænet på materiale med tilladelse, og det danske SupWiz, som f.eks. sælger løsninger til Chatbots for firmaer m.v.
Flere andre bidrog undervejs blandt andet Mikkel Flyverbom, professor ved CBS og formand for regeringens tech-ekspertgruppe, der beskrev konsekvenserne for informationstroværdighed i en AI-æra. Det er alt for nemt at bruge AI, så der er sat turbo på svindel og krænkelser. AI udfordrer troværdigheden af information og rummer en fare for at folks dømmekraft sættes ud af spil. Se ekspertgruppens 13 anbefalinger i Grænser for tech-giganternes udvikling og anvendelse af kunstig intelligens (2024), også omtalt her i bladet (Danmarks Biblioteker nr.3, 2024).
Hvad er viden?
Konferencen her er en mulighed for at stoppe op et øjeblik og reflektere over, hvad virkelig værdifuld viden er for en størrelse, fremhævede Erik Henz Kjeldsen, ansvarshavende redaktør på Danmarks Nationalleksikon, lex.dk, i sin afrunding af de mange indspil. “Det er ikke bare ord eller data, der er sat sammen af en formel med udgangspunkt i en statistisk sandsynlighed. Viden er ikke blot en samling af information. Det er en dybtgående for-ståelse, der er opnået mellem mennesker gennem metodisk refleksion, afprøvning og erfaring. Resultatet af års forskning og opbygning af ekspertise. Viden er ikke en algoritme.”
Ny lex.dk hvidbog
Sådan styrer techgiganterne og kunstig intelligens din adgang til viden på nettet, hedder hvidbogen, som lex.dk efterfølgende har udgivet fra konferencen. “Som et bidrag til en kvalificering af, hvordan vi som samfund både kan bevare og udvikle vores forståelse af, hvordan viden skabes, tilgængeliggøres og deles”.
■ Hent den her.
Konferencen kan streames her.
LEIF ANDRESEN, tidl. chefkonsulent Det Kgl. Bibliotek.
Hvad er AI?
Artificial Intelligence (AI) – på dansk Kunstig intelligens (KI) – er programmer, som efterligner et eller flere aspekter af den menneskelige intelligens. AI er de sidste år kommet i vælten, men er en gammel disciplin. Et dengang spektakulært eksempel på AI er f.eks. da IBM’s Deep Blue for 28 år siden slog verdensmesteren Garry Kasparov i skak. Det er muligheden for alle at bruge f.eks. ChatCPT, som har gjort AI mere almindeligt kendt.
ChatGPT er en sprogmodel, der kan skrive tekst baseret på et tekstinput. Den er trænet på store dele af internettet, hvilket gør det muligt for den at svare på næste alle spørgsmål. Svarene ligger i forlængelse af det input, som brugeren giver ud fra de data, som den er trænet på. Derfor kan ChatGPT svare med næsten enhver mulig holdning. Dog er der efterhånden indbygget blokeringer, så ChatGPT nu f.eks. afviser konspirationsteorier om covid-19 vacciner.
Problemet ligger således i hvilke data, et AI-program er trænet på. Helt basalt gælder en meget gammel regel for IT-programmer: “Skrald ind – skrald ud”. Når mange af de data, der er anvendt til træningen, ikke er valide, så bliver resultatet let fejlbehæftet. En ting er at lave sprogligt korrekte tekster, noget andet er at sikre, at indholdet er sandt.
Et meget omtalt og reelt problem er, når ChatGPT bruges til opgaveløsning og angiveligt videnskabelige artikler, idet resultatet nemt indeholder artikelhenvisninger, som er frit opfundne – men ser rigtige ud. Det illustreres af teksten på fagbladet Ingeniørens web-side for ”Side ikke fundet”: Vi er blevet opmærksomme på, at ChatGPT genererer falske links til artikler, der aldrig har eksisteret.
Men da det er træningssættet, som er afgørende for kvaliteten, kan teknologien anvendes som hjælpeværktøj f.eks. baseret på indholdet af videnskabelige artikler.
/LA.