Drücke „Enter”, um zum Inhalt zu springen.
Hinweis zu diesem Datenschutz-Blog:
Anscheinend verwenden Sie einen Werbeblocker wie uBlock Origin oder Ghostery, oder einen Browser, der bestimmte Dienste blockiert.
Leider wird dadurch auch der Dienst von VG Wort blockiert. Online-Autoren haben einen gesetzlichen Anspruch auf eine Vergütung, wenn ihre Beiträge oft genug aufgerufen wurden. Um dies zu messen, muss vom Autor ein Dienst der VG Wort eingebunden werden. Ohne diesen Dienst geht der gesetzliche Anspruch für den Autor verloren.

Ich wäre Ihnen sehr verbunden, wenn Sie sich bei der VG Wort darüber beschweren, dass deren Dienst anscheinend so ausgeprägt ist, dass er von manchen als blockierungswürdig eingestuft wird. Dies führt ggf. dazu, dass ich Beiträge kostenpflichtig gestalten muss.

Durch Klick auf folgenden Button wird eine Mailvorlage geladen, die Sie inhaltlich gerne anpassen und an die VG Wort abschicken können.

Nachricht an VG WortMailtext anzeigen

Betreff: Datenschutzprobleme mit dem VG Wort Dienst(METIS)
Guten Tag,

als Besucher des Datenschutz-Blogs Dr. DSGVO ist mir aufgefallen, dass der VG Wort Dienst durch datenschutzfreundliche Browser (Brave, Mullvad...) sowie Werbeblocker (uBlock, Ghostery...) blockiert wird.
Damit gehen dem Autor der Online-Texte Einnahmen verloren, die ihm aber gesetzlich zustehen.

Bitte beheben Sie dieses Problem!

Diese Nachricht wurde von mir persönlich abgeschickt und lediglich aus einer Vorlage generiert.
Wenn der Klick auf den Button keine Mail öffnet, schreiben Sie bitte eine Mail an info@vgwort.de und weisen darauf hin, dass der VG Wort Dienst von datenschutzfreundlichen Browser blockiert wird und dass Online Autoren daher die gesetzlich garantierten Einnahmen verloren gehen.
Vielen Dank,

Ihr Klaus Meffert - Dr. DSGVO Datenschutz-Blog.

PS: Wenn Sie meine Beiträge oder meinen Online Website-Check gut finden, freue ich mich auch über Ihre Spende.
Ausprobieren Online Webseiten-Check sofort das Ergebnis sehen

ChatGPT og Bing-AIsom garanti for fejlede resultater. Datavenlighed og datarettighed?

0
Dr. DSGVO Newsletter detected: Extended functionality available
More articles · Website-Checks · Live Offline-AI
📄 Artikel som PDF (kun for abonnenter på nyhedsbrevet)
🔒 Premium-Funktion
Der aktuelle Beitrag kann in PDF-Form angesehen und heruntergeladen werden

📊 Download freischalten
Der Download ist nur für Abonnenten des Dr. DSGVO-Newsletters möglich

Når ChatGPT første gang overraskede menneskeheden med fantastiske resultater, mener mange, at denne chatbot skal bruges til alt og alle. Det, der i privatlivet ser ud til at være uskyldigt, føre til problemer på arbejdspladsen, som hurtigt kan blive juridisk relevante.

Indledning

Sidst havde en tysk virksomhed annonceret, at de tilbyder en AI-løsning for tolkning af juridiske tekster. Årsagen var en artikel på Dr. GDPR om Kunstig Intelligenz for analyse af juridiske tekster.

AI-tilfældet fra nævnte firma er stadig i beta-stadiet. Der er grund til at tro, at en prototyp er blevet opbygget hurtigt for at kunne undersøge markedets interesse for sådanne tilfælde. Der er ikke engang et ord om, hvilket sprogmodel der bruges baggrunden. Undersøgelser tyder på, at det drejer sig om ChatGPT.

Denne artikel blev skabt sammen med foredraget den 05.09.2023 ved IT Klub Mainz & Rheinhessen i Gutenberg Digital Hub i Mainz.

Se nedenstående for indtryk.

Svarene fra AI-systemet var godt, men ikke verdensomfattende. På juridiske spørgsmål blev halvvejs plausible svar leveret sammen med kilder. Svarene ville dog ikke være tilstrækkelige til at afgøre en juridisk diskussion for sig selv. Sannsynligvis ville resultaterne endda ført direkte til nederlag.

At ChatGPT-3 er blevet brugt af AI-applikationen fra den tyske virksomhed kunne opdages, når man spurgte chatbot'en om dette. Svar fra AI var: "Yes, jeg bygger på en model med navn GPT-3, der udviklet er af OpenAI. […]

Hvad er så problematisk ved ChatGPT? Spørgsmålet kunne også stilles til Microsoft Copilot. Et enkel test viser, at Copilot selv med simple opgaver overfordres.

Motivation

Chatbots tilgår normalt en ingeførte videnbasis. Her et eksempel på en anvendelse af ovennævnte tyske firma, der tydeligvis bruger ChatGPT i baggrunden:

Forkert svar fra en chatbot, der bygger på ChatGPT. (billedet blev automatisk oversat).

Chatbotkenner ikke en dom, der eksisterer og kan identificeres ved en unik identifikator og således (for en jurist) er unikt identificeret. Chatboten skulle hellere have fortalt brugeren, hvor chatbotsens grænser ligger i stedet for at gøre, som om det søgte dom ikke findes.

For at kunne bruge ChatGPT, skal blot OpenAIs interface (API) anvendes. Fordi brugen af denne API er så enkel, føler det sig ud til mange som om de er kvalificerede til dette. Derved tager uorden sin gang, som man kan se på eksemplet ovenfor.

Det er sådan, man gør, når man vil bruge ChatGPT fra et eget program (Vær opmærksom: Alle data flyder til OpenAI/ChatGPT, kun følgende kode ligger lokal hos programmøren):

import openai
openai.api\_key = "XYZ" #Ihr kostenpflichtiger OpenAI API-Schlüssel
completion = openai.ChatCompletion()
def frage\_chatgpt(frage):
chat\_log = \[{
'role': 'system',
'content': 'Du bist ein hilfreicher Assistent',
}\]
chat\_log.append({'role': 'user', 'content': frage})
response = completion.create(model='gpt-3.5-turbo', messages=chat\_log)
antwort= response.choices\[0\]\['message'\]\['content'\]
return antwort
print(frage\_chatgpt("Was ist die Antwort auf alle Fragen?"))
Aufruf der OpenAI API für ChatGPT, um für eine Frage eine Antwort von ChatGPT zu erhalten.

Det kan virkelig enhver gøre. I hvert fald får så mange ikke-programmerere det til at skabe og udføre denne kode, som der er mennesker, der ikke har en køretøjsmeestertitel og kan bytte en dæk på deres bil. Som nævnt i koden, koster spillet mindst efter overtrædelse af et testkontingent pr. opkald penge. Svarstiden kunne også være hurtigere (det er klagen på højeste niveau til at dæmpe illusionen hos nogle, at ChatGPT kan alt).

Et eksempel på en falsk påstand, der er genereret af ChatGPT:

Forkert svar fra en chatbot, der bygger på ChatGPT. (billedet blev automatisk oversat).

Her er min konklusion, der også kan træde ind i min egen AI, men ikke i ChatGPT: Kiks er ikke tekstfiler, men dataindstillinger. ChatGPT vil således fortsat altid svare forkert.

Til minde: ChatGPT er et yderst avanceret Sprogmodel, der ligner sig selv.

Desværre bygger ChatGPT på så mange millioner eller milliarder dokumenter, at der er for meget usikkert allmene viden og for lidt præcis specialviden blevet indført i det kunstige hoved.

Bing-søgning fra Microsoft er også kraftet af kunstig intelligens. Microsoft har nyligt investeret penge i OpenAI for at profitere af ChatGPT-hype'en. Særligt, når man søger efter enkelt formulerede spørgsmål, kommer Bing's AI til at spille en rolle, og resultaterne bliver hurtigt forkerte eller mærkelige. Imod det vil resultaterne ofte være i overensstemmelse med forventningerne, når Bing søger på konventionel måde. Konventionelt lykkes det ofte bedst at finde gode treffere. Den store forskel er, at svar fra søgeresultaterne blot citeres, men ikke abstraheres, altså ikke gives i egen ordning af AI'en.

Impulsforelæsning ved IT-klubben i Mainz 6 Rheinhessen den 05.09.2023 på Gutenberg Digital Hub i Mainz. (billedet blev automatisk oversat).

Bedre en rigtig, sitter citeret svar end et falsk svar i eget ordvalg.

Bedre løsning

En bedre løsning giver ofte rigtige svar og giver brugeren mulighed for at måske usikre eller forkerte svar bedre at genkende, så de kan kritisk vurderes. Hvis en svar er usikkert eller forkert, kan det med en virksomheds-ejet AI godt opdaget blive, meget anderledes end ved brug af den sorte boks, der hedder ChatGPT.

Anvendelsesfald for virksomhedsejede AI-systemer er altid tilfældet, når præcise svar kræves eller hvis ofte egne dokumenter skal søges efter. ChatGPT mislykker her enten eller er i bedste fald for dyrt, da OpenAI beregner efter brugsvolumen.

Automatisering, validering og optimering er egenskaber, der især tilbydes af virksomhedsejede AI-systemer, ikke dog Black Boxer som ChatGPT.

At blive afhængig af andre synes ikke nødvendigvis at være den bedste strategi. Vi kender det fra de seneste år. Som eksempler kan nævnes systemer og platforme fra Google, Microsoft, Meta eller Apple.

Til dataens korrekthed, som nævnes i artiklen: Den pligt til at have og behandle personlige oplysninger korrekt, følger af Art. 18 § 1 GDPR. Er korrekthed af sådanne data omstridt eller deres behandling ikke eller ikke længere legitim, kan en berørt person kræve begrænsning af behandlingen.

Selv for data uden personlig tilknytning er deres rigthed ofte grundlæggende. Hvis en advokat fx tager svaret fra en chatbot med i sin skriftlige påstand, så ville det være bedre hvis det, der står derinde, er korrekt og kan holde op til prøven.

Det ville være katastrofalt for forskningsprojekter eller patentudgivelser, hvis fejle instruktioner eller fejle oplysninger træder ind i arbejdet. Retligt risikofyldt er desuden overdragelsen af kritiske data til tredje part. Data kan være kritisk, når de f.eks

  • Hemmelig
  • Efterretningsskyddet er beskyttet af lov om ophavsret
  • Personlige eller
  • Tilføjet med hemmelighed

Sindre.

Indfør faktaforståelse

Tilførslen af vigtige fakta til en tekstbehandling-AIkan meget væsentligt forbedres ved at indsætte disse i det elektroniske hjerne, hvilket også kaldes Grounding. Microsoft siger sig bruge dette til deres søgemaskine Bing, men det lykkes dem ikke, som mange eksempler viser. Rigtig udført hjælper Grounding med at fjerne meget udbredte falske oplysninger.

Efter at det selvstændige AI-system er blevet bragt på sporet, leverer den også bedre svar end ChatGPT, og det gælder for viden, der er relevant. Hvem Goethe var, skal vores eget AI-system ikke skulle vide. Dette overflødige tilføjede viden belaster kun et AI-modul og føre til falske påstande, mindst muligt til en lavere ydeevne („AI ser skoven fordi træerne“) eller langsommere svar.

Et eksempel på en svar, der er blevet genereret fra Dr. GDPR Wissensbestand og kvalitativ meget bedre (og især korrekt) end resultaterne fra Microsoft Bing og ChatGPT:

Svar fra selvstændige Dr. GDPR AI-systemer på spørgsmålet "Hvad er cookies?". (billedet blev automatisk oversat).

Tilgængeligt virksomhedsviden karakteriseres ved, at det er forholdsvis let tilgængeligt, optræder i form af dokumenter og dets påstande anses a priori som sande (eller sandsynligere end eksterne kilder). En egen AI-søgemaskine for virksomhedsviden har flere fordele.

Det første er, at den egne virksomheds-AIer selvstændig og ikke afhængig af andre. Spørgsmålet om en dataskadelighedseffektvurdering (DSFA) opstår her knap eller slet ikke. Hemmelige eller fortrolige data er godt pålagt i egne systemer.

Til at begynde med kan en selvstændig virksomheds-AItilpasset egen behov. Hvis du kigger på programmeteksten ovenfor, falder måske følgende ting op:

  1. Med Python kan kunstig intelligens-systemer opbygges i få linjer kode.
  2. Kompleksiteten ligger ikke i programmet, men i det kunstige intelligens-model, der blot skal opbygges en gang.
  3. Et lille skridt kan føre til meget.

Økonomiske anvendelser med betydelig værdi er mulige. Egen AI-systemer er endda ofte kostnadseffektivere end brugen af ChatGPT-interfaces, bortset fra de nævnte ulemper ved brug af et tredjesystem.

Konklusion

Kunstig intelligens bliver, sandsynligvis på grund af den rette begejstring for de nye muligheder, overvurderet eller fejlbedømt af mange. Almindelige intelligenser som ChatGPT er præcist tilfældet: Til at besvare almindelige spørgsmål uden påstand om tillid eller garanti for korrekthed. Det bliver kun alene ved brugerledningen af sådanne systemer synlig, der ikke indeholder nogen anvisninger om, at resultaterne skal være sorgfaldigt overprøvet eller også en forkert respons kunne være med.

Få linjer kode er tilstrækkeligt til at med hjælp af 100 milliarder kunstige neuroner oprette en fejlagtig udgang. Et par rækker mere kode hjælper med at få rigtige svar ved hjælp af et eget system.

Virksomheder, der ønsker at bruge en AI, skal først klare sig med følgende spørgsmål: For hvad skal denne AI nøjagtig bruges til? Hvis dette spørgsmål ikke kan besvares, så er det sandsynligvis et fast faktum. Dette virksomhed har enten ikke brug for et AI-system eller ved ikke, hvad de ønsker at bruge det til.

Den private brug af ChatGPT og lignende systemer er sikkert spændende, men noget helt anderledes end brugen af chatbots eller AI-systemer i almindelighed i virksomheden.

Hvis et firma har et problem, der kan løses ved hjælp af en kognitiv it-system (AI), så er det værd at undersøge, om dette problem også kan løses med et eget AI-system i firmaet.

About the author on dr-dsgvo.de
My name is Klaus Meffert. I have a doctorate in computer science and have been working professionally and practically with information technology for over 30 years. I also work as an expert in IT & data protection. I achieve my results by looking at technology and law. This seems absolutely essential to me when it comes to digital data protection. My company, IT Logic GmbH, also offers consulting and development of optimized and secure AI solutions.

Kunstig intelligens: Hype og overvurderet eller tilpassede forventninger?