Drücke „Enter”, um zum Inhalt zu springen.
Hinweis zu diesem Datenschutz-Blog:
Anscheinend verwenden Sie einen Werbeblocker wie uBlock Origin oder Ghostery, oder einen Browser, der bestimmte Dienste blockiert.
Leider wird dadurch auch der Dienst von VG Wort blockiert. Online-Autoren haben einen gesetzlichen Anspruch auf eine Vergütung, wenn ihre Beiträge oft genug aufgerufen wurden. Um dies zu messen, muss vom Autor ein Dienst der VG Wort eingebunden werden. Ohne diesen Dienst geht der gesetzliche Anspruch für den Autor verloren.

Ich wäre Ihnen sehr verbunden, wenn Sie sich bei der VG Wort darüber beschweren, dass deren Dienst anscheinend so ausgeprägt ist, dass er von manchen als blockierungswürdig eingestuft wird. Dies führt ggf. dazu, dass ich Beiträge kostenpflichtig gestalten muss.

Durch Klick auf folgenden Button wird eine Mailvorlage geladen, die Sie inhaltlich gerne anpassen und an die VG Wort abschicken können.

Nachricht an VG WortMailtext anzeigen

Betreff: Datenschutzprobleme mit dem VG Wort Dienst(METIS)
Guten Tag,

als Besucher des Datenschutz-Blogs Dr. DSGVO ist mir aufgefallen, dass der VG Wort Dienst durch datenschutzfreundliche Browser (Brave, Mullvad...) sowie Werbeblocker (uBlock, Ghostery...) blockiert wird.
Damit gehen dem Autor der Online-Texte Einnahmen verloren, die ihm aber gesetzlich zustehen.

Bitte beheben Sie dieses Problem!

Diese Nachricht wurde von mir persönlich abgeschickt und lediglich aus einer Vorlage generiert.
Wenn der Klick auf den Button keine Mail öffnet, schreiben Sie bitte eine Mail an info@vgwort.de und weisen darauf hin, dass der VG Wort Dienst von datenschutzfreundlichen Browser blockiert wird und dass Online Autoren daher die gesetzlich garantierten Einnahmen verloren gehen.
Vielen Dank,

Ihr Klaus Meffert - Dr. DSGVO Datenschutz-Blog.

PS: Wenn Sie meine Beiträge oder meinen Online Website-Check gut finden, freue ich mich auch über Ihre Spende.
Ausprobieren Online Webseiten-Check sofort das Ergebnis sehen

ChatGPT och Bing-AIsom garant för felaktiga resultat. Datavänlighet och datorkorrekthet?

0
Dr. DSGVO Newsletter detected: Extended functionality available
More articles · Website-Checks · Live Offline-AI

När ChatGPT först visade människorna otroliga resultat tycker många att man måste använda denna chattbot till allt och alla. Vad som i det privata liv verkar vara ofarligt, leder i affärsverksamheten till problem som snabbt kan bli juridiska.

Inledning

Senast har en tysk firma annonserat att de erbjuder en AI-lösning för tolkning av juridiska texter. Orsaken var ett inlägg på Dr. GDPR till Künstliche Intelligenz för analys av juridiska texter.

Den AI-användningen från den nämnda företaget är fortfarande i beta-stadiet. Misstanken är att en prototyp snabbt har byggts för att kunna undersöka marknaden för sådana tillämpningar. Vid inga tillfällen nämndes vilket språkmodell som används bakom kulisserna. Utredningar tyder på att det rör sig om ChatGPT.

Denna artikel skapades tillsammans med föredraget den 5 september 2023 vid IT-klubben i Mainz & Rheinhessen på Gutenberg Digital Hub i Mainz.

Se nedan för intryck.

Svar från AI-systemet var bra, men inte uppmärksammade. På juridiska frågor gavs halvvägs plausibla svar med källhänvisningar. Svarna hade dock inte räckt för att avgöra en juridisk diskussion i sin favör. Resultaten skulle troligen ha lett till direkt nederlag.

Att ChatGPT-3 använts av en AI-användning från ett tyskt företag kunde konstateras genom att man frågade chatboten om detta. Svaret från AI var: "Yes, jag baserar mig på ett modell som heter GPT-3, utvecklat av OpenAI. […]

Vad är så problematiskt med ChatGPT? Frågan kunde också ställas till Microsoft Copilot. En enkel test visar, att Copilot själv överväldras av enkla uppgifter.

Motivation

Chatbotar brukar vanligtvis dra tillbaka på en ingående kunskapsbas. Här ett exempel på en användning av ovanstående tyska företag, som tydligen använder ChatGPT i bakgrunden:

Felaktig svar från en chattbot som bygger på ChatGPT. (bilden översattes automatiskt).

Chatboten känner inte till ett domstolsutslag som finns och kan identifieras med en tydlig identifikator och därmed (för en jurist) tydligt identifierad. Chatboten borde hellre ha informerat användaren om gränserna för chatboten istället för att ge intrycket att det sökta domstolsutslaget inte finns.

För att kunna använda ChatGPT behöver man bara använda OpenAIs gränssnitt (API). Eftersom det är så enkelt att använda denna API tycks många känna sig berättigade att göra detta. Detta leder till problem, som exempelvis syns i exemplet ovan.

Det går så här att använda ChatGPT från ett eget program (Varning: Alla data flyter till OpenAI/ChatGPT, endast följande kod ligger lokal hos programmeraren):

import openai
openai.api\_key = "XYZ" #Ihr kostenpflichtiger OpenAI API-Schlüssel
completion = openai.ChatCompletion()
def frage\_chatgpt(frage):
chat\_log = \[{
'role': 'system',
'content': 'Du bist ein hilfreicher Assistent',
}\]
chat\_log.append({'role': 'user', 'content': frage})
response = completion.create(model='gpt-3.5-turbo', messages=chat\_log)
antwort= response.choices\[0\]\['message'\]\['content'\]
return antwort
print(frage\_chatgpt("Was ist die Antwort auf alle Fragen?"))
Aufruf der OpenAI API für ChatGPT, um für eine Frage eine Antwort von ChatGPT zu erhalten.

Det här kan verkligen vem som helst göra. I alla fall lyckas så många icke-programmerare att skapa och köra denna kod, som det finns människor som inte är bilmeister och som kan byta en däck på sin bil. Som i koden antydas kostar nöjet minst sagt pengar när man överskrider ett testantal per anrop. Svarstiden kunde också vara snabbare (det är att meka på hög nivå för att sätta stopp för illusionen hos vissa att ChatGPT kan allt).

Ett ytterligare exempel på en falsk uppgift som skapas av ChatGPT:

Felaktig svar från en chattrobot som bygger på ChatGPT. (bilden översattes automatiskt).

Här är min slutsats, som också kan inflyta i min egen AI men inte i ChatGPT: Kakor är ingen textfil, utan en datamängd. ChatGPT kommer därför att svara fel tillfälligt.

Som minne: ChatGPT är ett extremt välutvecklat språkmodell som sin art saknar.

Tyvärr bygger ChatGPT på så många miljoner eller miljarder dokument att alltför mycket felaktigt allmänt kunnande och för lite exakt specialkunnande har trängt in i det artificiella hjärnan.

Bing-sökningen från Microsoft är också AI-driven. Microsoft har nyligen delat i pengar till OpenAI för att dra nytta av ChatGPT-hysterin. Särskilt när man ställer enkel formulerade sökfrågor kommer Bing-AIsnabbt med felaktiga eller skrattretande resultat. Tvärtom ligger resultaten ofta inom det positiva förväntningsfältet, om Bing söker på konventionell sätt. När man söker på konventionellt sätt lyckas man oftast bäst med bra träffar. Skillnaden är att svaren från sökresultaten "bara" citeras, men inte abstraheras, alltså ges i AI:s egna ord.

Impulsföreläsning på IT-klubben i Mainz 6 Rheinhessen den 05.09.2023 på Gutenberg Digital Hub i Mainz. (bilden översattes automatiskt).

Bättre en riktig, citerad svar än ett falskt svar i eget ordval.

Bättre lösning

En bättre lösning ger ofta riktiga svar och ger användaren möjlighet att känna igen eventuellt otydliga eller felaktiga svar, så att de kan granskas kritiskt. Om en svarsalternativ är otydligt eller felaktigt kan det med hjälp av företagets egen AI upptäckas på ett annat sätt än när man använder den svarta lådan som heter ChatGPT.

Användningsfallet för företagsägda AI-system är alltid då exakta svar behövs eller när man ofta vill söka igenom egna dokument. ChatGPT misslyckas här eller är i bästa fall för dyrt, eftersom OpenAI fakturerar efter användningsvolym.

Automatisering, validering och optimering är egenskaper som främst tillhandahålls av företagsägda AI-system, inte black boxar som ChatGPT.

Att vara beroende av tredje part tycks inte heller vara den bästa strategin. Vi vet det från de senaste åren. Som exempel kan nämnas system och plattformar från Google, Microsoft, Meta eller Apple.

Till Datenriktighet, som nämns i artikeln: Den skyldighet att ha korrekta personuppgifter och behandla dem, följer bland annat av Artikel 18 §1 GDPR. Om giltigheten av sådana uppgifter är omdiskuterad eller deras behandling inte längre är legitim kan en berörd person begära begränsning av behandlingen.

Även för data som inte har något samband med personer är deras riktighet ofta grundläggande. Om en advokat till exempel tar in ett svar från en chattbot i sin skrift, vore det bättre om det som står där är korrekt och kan hålla en prövning.

Även vid forskningsprojekt eller i patentbeskrivningar skulle det vara katastrofalt om felaktiga instruktioner eller felaktiga slutsatser trängde in i arbetet. Rättsligt riskabelt är dessutom överföringen av känsliga data till tredje part. Data kan vara känsliga när de exempelvis

  • Hemligt
  • Upphovsrätt skyddat
  • Personbunden eller
  • Förtröttligt

Sjunga.

Sanningskunskap inta

Tillförlitligheten hos en textbearbetande AI kan markant förbättras genom att viktiga fakta explicit införs i det elektroniska hjärnans "minne". Detta kallas ofta Grounding. Microsoft påstår sig använda detta för sin sökmotor Bing, men misslyckas med det, som många exempel visar. Rätt utfört kan Grounding hjälpa till att eliminera spridda falska uppgifter.

Efter att företagets egen AI hade blivit åtgången, levererar den också bättre svar än ChatGPT, och det gäller för kunskapen som är relevant. Vem Goethe var, behöver inte vår egen AI-system veta. Detta onödiga tilläggskunskap belastar bara ett kI-modell och leder till falska påståenden, åtminstone till mindre prestanda (”AI:n ser inte skogen för alla träd”) eller långsammare svar.

Här ett exempel på en svar som har genererats från Dr. GDPR Wissensbestand och är kvalitativt mycket bättre (och framför allt riktigt) än resultaten från Microsoft Bing och ChatGPT:

Svar från självständiga Dr. GDPR AI-systemet på frågan "Vad är Cookies?. (bilden översattes automatiskt).

Förhandsinformation om ett företags kunskap är karakteriserad av att den oftast är relativt lätt att överblicka, finns i form av dokument och deras påståenden anses a priori vara riktiga (eller mer riktiga än externa källor). En egen AI-sökning för företagskunskap har flera fördelar.

Först och främsta är den egna företags- AI självständig och inte beroende av andra. Frågan om en dataskyddskonsekvensbedömning (DSFA) uppstår knappt eller överhuvudtaget. Hemliga eller konfidentiella data är bra skyddade i egna system.

För det andra kan en självständig företags-AIanpassas till egna behov. När du tittar på programmet exempel ovan, kanske du märker att:

  1. Med Python kan artificiella intelligenssystem skapas på bara några rader kod.
  2. Komplexiteten ligger inte i programmet utan i det artificiella intelligensmodellen som bara behöver byggas en gång.
  3. En liten steg räcker för att göra mycket.

Ekonomiska tillämpningar med betydande värde är sådana möjliga. Egna AI-system är faktiskt ofta kostnadseffektivare än att använda ChatGPT-gränssnittet, förutom de nämnda nackdelarna vid användning av ett tredje system.

Sammandrag

Kunskapsdatorer överdrivas eller felaktigt bedöms av många, säkert på grund av den berättigade entusiasmen för de nya möjligheterna. Allmänt intelligenta system som ChatGPT är precis vad man behöver: För att besvara allmänna frågor utan krav på tillförlitlighet eller ens riktighet. Detta syns enbart i användarhandledningen för sådana system, som inte innehåller några indikationer på att resultaten borde granskas noggrant eller att det kan finnas felaktiga svar ibland.

Få rader kod är tillräckliga för att med hjälp av 100 miljarder artificiella neuroner skapa en felaktig utgång. Ett par rader till kod hjälper därvid att få riktiga svar med ett eget system.

Företag som vill använda sig av en kognitiv artificiell intelligens måste först klara en fråga: För vad ska denna AI användas? Om man inte kan besvara den här frågan, så är det nog ett faktum att detta företag behöver inget AI-system eller vet ännu inte varför.

Den privata användningen av ChatGPT och liknande system är säkert spännande, men någonting helt annat än användningen av chattrobotar eller kognitiva system allmänt i företaget.

Om ett företag har ett problem som kan lösas med hjälp av en AI, så är det värt att undersöka om detta problem kan lösas med ett eget AI-system inom företaget.

About the author on dr-dsgvo.de
My name is Klaus Meffert. I have a doctorate in computer science and have been working professionally and practically with information technology for over 30 years. I also work as an expert in IT & data protection. I achieve my results by looking at technology and law. This seems absolutely essential to me when it comes to digital data protection. My company, IT Logic GmbH, also offers consulting and development of optimized and secure AI solutions.

Konstig intelligens: Hype och överdriven eller rimliga förväntningar?