Drücke „Enter”, um zum Inhalt zu springen.
Hinweis zu diesem Datenschutz-Blog:
Anscheinend verwenden Sie einen Werbeblocker wie uBlock Origin oder Ghostery, oder einen Browser, der bestimmte Dienste blockiert.
Leider wird dadurch auch der Dienst von VG Wort blockiert. Online-Autoren haben einen gesetzlichen Anspruch auf eine Vergütung, wenn ihre Beiträge oft genug aufgerufen wurden. Um dies zu messen, muss vom Autor ein Dienst der VG Wort eingebunden werden. Ohne diesen Dienst geht der gesetzliche Anspruch für den Autor verloren.

Ich wäre Ihnen sehr verbunden, wenn Sie sich bei der VG Wort darüber beschweren, dass deren Dienst anscheinend so ausgeprägt ist, dass er von manchen als blockierungswürdig eingestuft wird. Dies führt ggf. dazu, dass ich Beiträge kostenpflichtig gestalten muss.

Durch Klick auf folgenden Button wird eine Mailvorlage geladen, die Sie inhaltlich gerne anpassen und an die VG Wort abschicken können.

Nachricht an VG WortMailtext anzeigen

Betreff: Datenschutzprobleme mit dem VG Wort Dienst(METIS)
Guten Tag,

als Besucher des Datenschutz-Blogs Dr. DSGVO ist mir aufgefallen, dass der VG Wort Dienst durch datenschutzfreundliche Browser (Brave, Mullvad...) sowie Werbeblocker (uBlock, Ghostery...) blockiert wird.
Damit gehen dem Autor der Online-Texte Einnahmen verloren, die ihm aber gesetzlich zustehen.

Bitte beheben Sie dieses Problem!

Diese Nachricht wurde von mir persönlich abgeschickt und lediglich aus einer Vorlage generiert.
Wenn der Klick auf den Button keine Mail öffnet, schreiben Sie bitte eine Mail an info@vgwort.de und weisen darauf hin, dass der VG Wort Dienst von datenschutzfreundlichen Browser blockiert wird und dass Online Autoren daher die gesetzlich garantierten Einnahmen verloren gehen.
Vielen Dank,

Ihr Klaus Meffert - Dr. DSGVO Datenschutz-Blog.

PS: Wenn Sie meine Beiträge oder meinen Online Website-Check gut finden, freue ich mich auch über Ihre Spende.
Ausprobieren Online Webseiten-Check sofort das Ergebnis sehen

Forståelse af AI-hallucinationer: Årsager og eksempler på kunstig fiktion

0
Dr. DSGVO Newsletter detected: Extended functionality available
More articles · Website-Checks · Live Offline-AI
📄 Artikel som PDF (kun for abonnenter på nyhedsbrevet)
🔒 Premium-Funktion
Der aktuelle Beitrag kann in PDF-Form angesehen und heruntergeladen werden

📊 Download freischalten
Der Download ist nur für Abonnenten des Dr. DSGVO-Newsletters möglich

AI-hallucinationer er falske udsagn fra en AI baseret på korrekte oplysninger. Resultatet er et plausibelt udsagn, som kunne være korrekt, men ikke er det. En forklaring på hallucinationer er mulig, hvis man f.eks. ser på, hvordan AI-sprogmodeller koder information og dens betydning.

Indledning

Alle har nok hørt om hallucinationer i forbindelse med kunstig intelligens.

Hallusinationer er derfor så spændende, fordi det drejer sig om falske påstande, som har potentialet til at plausibel at lyde. Det, der lyder plausibel, bliver ofte opfattet som sandt eller rigtigt. Præcis heri ligger faren ved hallusinationer.

Hallusinationer er falske påstande, der baserer sig på korrekt baggrundsviden. Falske påstande, der stammer fra forkert viden eller misforståelser på grund af en dårligt formuleret spørgsmål, er ikke hallusinationer.

Grundlaget for hallucinationer er semantiske vektorer. Hvad det indebærer, skal vi se nærmere på.

Hvordan hallucinationer udvikler sig

En semantisk vektor er bæreren af en betydning. Hvad er en betydning? En betydning er et subjektivt defineret udsagn. Man kan også sige, at alle definerer deres egen sandhed.

Jeg skaber verden for mig selv,

Bredt, som jeg kan lide det.

Pippi Langstrumpf

Sandhed er (altid?) noget subjektivt. Selv fysiske teorier som relativitetsteorien og kvantemekanikken, som nok er blandt vores bedste teorier, fortolkes rent subjektivt.

Mennesket finder betydningen af genstande og forhold gennem kulturel prægning, opdragelse og egen oplevelse. Den computer („den AI“) søger efter Betydning på grund af træningsdata, hvad der i sig selv nok ikke er andet.

Betydningen findes ved Optimering af en matematisk funktion. Så vil det også mennesket sikkert gøre, kun at optimeringen hos mennesket også kan indeholde kontraproduktive elementer med intention (?!).

Følgende billede viser en forenklet fremstilling af, hvordan betydningen af sætningen "Hunden løber i parken" er kodet i en AI-model.

AI-modeller (i dette tilfælde sprogmodeller) lagrer betydningen af information i form af (semantiske) vektorer.

Den netop nævnte sætning har mange betydningsfacetter. Den siger f.eks. noget om et levende væsen ("hund"), tematiserer en aktivitet ("løb"), indeholder en tonalitet (her: neutral følelse) og beskriver et sted ("park"). I øvrigt: Begrebet "park" kan have flere betydninger. Her henviser det til et grønt område i en by. En anden betydning, som ikke er ment her, men som ville være mulig, er imperativ af "parken".

Billedet viser kun to dimensioner (2D) til simpliciteten. I virkeligheden arbejder AI-modeller med mange hundrede dimensioner, f.eks. 512. Den høje antal af dimensioner tjener til at gribe de forskellige betydning-facetter i en udtale, altså repræsentere dem.

Udsagnet "Hunden løber i parken" er sandt. Hvordan kan dette resultere i et falsk udsagn?

Mange AI-systemer genererer resultater ved at repræsentere betydningen af input som en vektor (eller vektorer) og gør det samme for lagret baggrundsviden. Nu kan man regne med vektorer – det ved alle, der er gode til matematik eller husker bedre tider.

Den følgende figur viser skematisk tilføjelsen af to semantiske vektorer.

Skabelse af hallucinationer ved at tilføje to vektorer som bærere af mening.

Du kan se to udsagn, som begge er sande:

  • Albert Einstein modtog Nobelprisen i fysik -> Sandt udsagn
  • Albert Einstein udviklede relativitetsteorien -> Sandt udsagn

Hvis man nu lægger vektorerne for disse to udsagn sammen, får man den vektor, der er vist med rødt på billedet, og som repræsenterer et falsk udsagn. Tilføjelsen af de to pile, grøn og blå, er illustreret øverst til højre i figuren i miniatureform. De stiplede linjer viser også, hvordan den røde pil skabes ud fra den grønne og den blå pil.

I AI-modellen opstår ved Lignlighedsforsøg med det røde resultatvektor således en påstand, der bedst svarer til resultatvektoren. Derved følger den falske påstand: „Einstein modtog Nobelprisen for relativitetsteorien“.

Det er svært at tro, at et af de mest fremragende genier i menneskehedens historie IKKE modtog en Nobelpris for en af de mest fremragende teorier i menneskehedens historie. Det kunne ses som en uforskammethed eller som et tegn på menneskehedens globale dumhed. De følgende resultater er trods alt baseret på Einsteins relativitetsteori:

  • GPS og navigationsystemer: Uden at tage relativistiske effekter i betragtning ville GPS-satellitter være ugenug efter få timer, da urene på satellitterne løber hurtigere på grund af den lavere gravitation.
  • Partikelaccelerator som Large Hadron Collider på CERN fungerer kun, fordi relativistiske effekter ved acceleration af partikler til næsten lysfart medregnes. Disse anlæg har ført til opdagelsen af Higgs-bosonen og mange andre elementærpartikler.
  • Medicinsk billedgivning bruger relativitetsteorien i Positron-Emissions-Tomografi (PET). Der anvendes antimateriepartikler, hvis adfærd Einstein havde forudsagt.
  • Astronomi og kosmologi blev revolutioneret. Teorien gjorde det muligt at forese og senere observere sorte huler, gravitationsbølger og hjalp til med at forstå universets udvidelse.
  • Kvantecomputing fordeler sig af relativistiske koncepter, især ved udviklingen af meget præcise atomure og kvantensensorer.
  • Synchronisation af computernetværk og finansielle handelssystemer tager i dag relativistiske tidseffekter i betragtning til præcise tidsmålinger over store afstande.

I bedste fald var Nobel-jurymedlemmerne intellektuelt overvældede på det tidspunkt og turde ikke give deres velsignelse til en teori, der muligvis var forkert i deres øjne.

Tilbage til hallucinationerne:

Det ovennævnte falske udsagn er derfor opstået ved at kombinere to korrekte udsagn. Det er en anden grund til, at det lyder så plausibelt og kan aflede opmærksomheden fra virkeligheden (som vi har defineret den).

Det er sådan, hallucinationer opstår.

Desuden er svarene fra AI-sprogmodellerne ofte så tiltalende og strukturerede, at de virker professionelle. Det forstærker indtrykket af, at det falske udsagn (hallucinationen) er korrekt.

Vektorer kan desuden igen omformes til tekst (eller andre datatyper, der også kaldes modaliteter). Dette gøres ved hjælp af såkaldte Indlejringer. Det er matematiske vektorrepræsentationer af udsagn.

Årsager til hallucinationer

Der er mange mulige årsager til hallucinationer. Her er et uddrag af nogle muligheder for falske udsagn.

Statistisk interpolation i stedet for faktuel viden

Sprogmodeller gemmer ikke information som diskrete fakta, men som statistiske vægtninger mellem forskellige begreber. Når systemet svarer på en forespørgsel, kombinerer det disse vægtninger for at generere det mest sandsynlige svar. På den måde kan modellen skabe forbindelser mellem begreber, som ikke var eksplicit til stede i træningsdataene.

Det skal bemærkes, at menneskets eksistens udelukkende er baseret på statistik. Nogle mennesker bliver forargede over dette udsagn. De burde tage et kig på kvantefysikken (på et generelt niveau).

Disse: Statistik er grundlaget for intelligens, ikke årsagen til at der ikke ville være nogen intelligens.

Ufuldstændige eller modstridende træningsdata

Kvaliteten af træningsdataene har stor indflydelse på tendensen til hallucinationer. Hvis en model trænes på data, der indeholder unøjagtigheder, modsigelser eller huller i viden, kan disse problemer forekomme hyppigere i den efterfølgende anvendelse. Desuden kan forskellige kilder give modstridende oplysninger om det samme emne.

Det er ikke anderledes med mennesker.

Selvtillid uden forståelse

AI-systemer har ingen bevidsthed om deres egne vidensgrænser. De kan ikke skelne mellem sikker viden og antagelser og udtrykker ikke eksplicit usikkerheder. I stedet genererer de svar med en tilsyneladende sikkerhed, som ikke svarer til informationens faktiske pålidelighed.

Robotter vil snart lukke disse vidensgrænser. Ligesom mennesker vil de udforske omgivelserne og indsamle deres egne erfaringer med miljøet.

Særlige risikoområder

Visse emneområder er særligt udsatte for hallucinationer. Disse omfatter aktuelle begivenheder, der fandt sted efter træningsdatoen, højt specialiserede emneområder med begrænset offentligt tilgængelig information og områder, hvor præcision er afgørende, såsom medicinske eller juridiske emner.

Hvad angår jura, er der næsten ingen "normale" mennesker, der forstår, hvad der står i specialiserede juridiske artikler, domme eller i nogle love og regler. Det er i øvrigt helt bevidst: Advokater vil gerne holde sig for sig selv på nogle områder og bruger derfor et "magtsprog". Disse oplysninger kommer ikke fra forfatteren af denne artikel, men fra en advokat.

Oversigt over AI-hallucinationer: Årsager, genkendelse, risiko og muligheder for at undgå dem.

Konklusion

Hallucinationer opstår gennem en kombination af sand viden. De omgår sandheden. Hallucinationer kan forstås ved at betragte semantiske vektorer som bærere af mening.

Men sådanne hallucinationer kan også finde sted på en analog måde i neurale netværk, som er grundlaget for mange af de nuværende AI-modeller. Et neuralt netværk kan trods alt repræsentere en vektor, fordi det er så plastisk, at det kan bære og repræsentere enhver form for information.

Hvad angår AI-loven, er det bedre at forsøge at minimere risikoen for hallucinationer. Det er endnu bedre at undgå hallucinationer.

Der er mere at sige om Hallusinationer i den snart udkomende Sammelbog "Risikoanalyse-AI", der udgives af Prof. Wanderwitz, kan læses. Denne artikel bygger delvist og i markant forkortet form på artiklen, som er bestemt til at være med i samlingen.

Hallusinationer kan undgås, hvis man tager sig lidt tid. Med ChatGPT får du det ikke til at lykkes, men med en optimeret AI for virksomheder og andre organisationer kan du. I et kunde projekt kunne vi bygge en tillidensværdig chatbot til et komplekst videnfelt. Chatboten svarede rigtigt i meget mange tilfælde. Den vidste også, hvornår den skulle svare rigtigt. I de få tvivlsomme tilfælde modtog mennesket foran skærmen besked om, at svaret skulle vurderes. I alle tilfælde blev kilderne til svaret angivet. Ved de som var kendte rigtige svarede chatboten med et kvalitetsmærke ("vi står bag denne svar nu").

About the author on dr-dsgvo.de
My name is Klaus Meffert. I have a doctorate in computer science and have been working professionally and practically with information technology for over 30 years. I also work as an expert in IT & data protection. I achieve my results by looking at technology and law. This seems absolutely essential to me when it comes to digital data protection. My company, IT Logic GmbH, also offers consulting and development of optimized and secure AI solutions.

AI-programmering: softwareudvikling nemmere, hurtigere og mere effektiv