Drücke „Enter”, um zum Inhalt zu springen.
Hinweis zu diesem Datenschutz-Blog:
Anscheinend verwenden Sie einen Werbeblocker wie uBlock Origin oder Ghostery, oder einen Browser, der bestimmte Dienste blockiert.
Leider wird dadurch auch der Dienst von VG Wort blockiert. Online-Autoren haben einen gesetzlichen Anspruch auf eine Vergütung, wenn ihre Beiträge oft genug aufgerufen wurden. Um dies zu messen, muss vom Autor ein Dienst der VG Wort eingebunden werden. Ohne diesen Dienst geht der gesetzliche Anspruch für den Autor verloren.

Ich wäre Ihnen sehr verbunden, wenn Sie sich bei der VG Wort darüber beschweren, dass deren Dienst anscheinend so ausgeprägt ist, dass er von manchen als blockierungswürdig eingestuft wird. Dies führt ggf. dazu, dass ich Beiträge kostenpflichtig gestalten muss.

Durch Klick auf folgenden Button wird eine Mailvorlage geladen, die Sie inhaltlich gerne anpassen und an die VG Wort abschicken können.

Nachricht an VG WortMailtext anzeigen

Betreff: Datenschutzprobleme mit dem VG Wort Dienst(METIS)
Guten Tag,

als Besucher des Datenschutz-Blogs Dr. DSGVO ist mir aufgefallen, dass der VG Wort Dienst durch datenschutzfreundliche Browser (Brave, Mullvad...) sowie Werbeblocker (uBlock, Ghostery...) blockiert wird.
Damit gehen dem Autor der Online-Texte Einnahmen verloren, die ihm aber gesetzlich zustehen.

Bitte beheben Sie dieses Problem!

Diese Nachricht wurde von mir persönlich abgeschickt und lediglich aus einer Vorlage generiert.
Wenn der Klick auf den Button keine Mail öffnet, schreiben Sie bitte eine Mail an info@vgwort.de und weisen darauf hin, dass der VG Wort Dienst von datenschutzfreundlichen Browser blockiert wird und dass Online Autoren daher die gesetzlich garantierten Einnahmen verloren gehen.
Vielen Dank,

Ihr Klaus Meffert - Dr. DSGVO Datenschutz-Blog.

PS: Wenn Sie meine Beiträge oder meinen Online Website-Check gut finden, freue ich mich auch über Ihre Spende.
Ausprobieren Online Webseiten-Check sofort das Ergebnis sehen

ChatGPT i Bing-AI gwarancja błędnych wyników. Przyjazność danych i ich poprawność?

0
Dr. DSGVO Newsletter detected: Extended functionality available
More articles · Website-Checks · Live Offline-AI

Kiedy ChatGPT po raz pierwszy zaskoczył ludzkość niezwykłymi wynikami, wielu uważa, że należy go używać w każdej sytuacji. Co w prywatnym życiu może wydawać się bezpieczne, prowadzi do problemów w sferze biznesowej, które szybko mogą stać się przedmiotem postępowania sądowego.

Wprowadzenie

Ostatnio niemiecka firma ogłosiła, że oferuje rozwiązanie oparte na sztucznej inteligencji do interpretacji tekstów prawnych. Powodem było artykuły na Dr. RODO o Sztuczna inteligencja do analizy tekstów prawnych.

Aplikacja AI tej firmy jest jeszcze w stadium beta. Podejrzewa się, że prototyp został szybko stworzony, aby móc przetestować rynek takich aplikacji. W żadnym miejscu nie zostało wspomniane, który model językowy jest używany w tle. Badania sugerują, że chodzi o ChatGPT.

Ten wpis powstał wraz z prelekcją z dnia 05.09.2023 na IT Klub Mainz & Rheinhessen w Gutenberg Digital Hub w Moguncji.

Zobacz dalej poniżej dla wrażenia.

Odpowiedzi systemu AI były dobre, ale nie budzące entuzjazmu. Na pytania prawne dostarczono odpowiedzi w miarę przekonujące z cytowanymi źródłami. Odpowiedzi te jednak byłyby niewystarczające, aby rozstrzygnąć spór prawniczy na ich korzyść. Prawdopodobnie wyniki nawet bezpośrednio doprowadziłyby do porażki.

Stwierdzono, że ChatGPT-3 został użyty przez aplikację AI firmy niemieckiej, po zapytaniu chatbota o informacje w tej sprawie. Odpowiedź AI była następująca: „Tak, opieram się na modelu o nazwie GPT-3, który został opracowany przez OpenAI. […]

Co jest tak niebezpieczne w ChatGPT? Ta sama pytanie można postawić również do Microsoft Copilota. Jedno proste testowanie wykazuje, że sam Copilot ma kłopoty z prostymi zadaniami.

Motywacja

Chatboty zwykle korzystają na wprowadzoną bazy wiedzy. Oto przykład aplikacji firmy niemieckiej, która wydaje się używać ChatGPT w tle:

Błędna odpowiedź chatbota opartego na ChatGPT. (obraz został przetłumaczony automatycznie).

Chatbot nie zna wyroku, który istnieje i jest jednoznacznie identyfikowany przez unikalny identyfikator, a więc (dla prawnika) jest jednoznacznie identyfikowany. Chatbot powinien był raczej poinformować użytkownika o granicach chatbota niż sugerować, że nie istnieje wyrok, który go interesuje.

Aby móc skorzystać z ChatGPT, wystarczy użyć interfejsu API OpenAI (API). Z powodu łatwości korzystania z tej API wielu sięga po nią, co prowadzi do kłopotów, jak widać na przykładzie.

Tak łatwo można to zrobić, aby wykorzystać ChatGPT z własnego programu (Uwaga: Dane są przekazywane do OpenAI/ChatGPT, jedynie następujący kod programu znajduje się lokalnie u programisty):

import openai
openai.api\_key = "XYZ" #Ihr kostenpflichtiger OpenAI API-Schlüssel
completion = openai.ChatCompletion()
def frage\_chatgpt(frage):
chat\_log = \[{
'role': 'system',
'content': 'Du bist ein hilfreicher Assistent',
}\]
chat\_log.append({'role': 'user', 'content': frage})
response = completion.create(model='gpt-3.5-turbo', messages=chat\_log)
antwort= response.choices\[0\]\['message'\]\['content'\]
return antwort
print(frage\_chatgpt("Was ist die Antwort auf alle Fragen?"))
Aufruf der OpenAI API für ChatGPT, um für eine Frage eine Antwort von ChatGPT zu erhalten.

To można zrobić każdy. W końcu tyle samo nieprogramistów potrafią napisać i uruchomić ten kod, ile ludzi, którzy nie są mistrzami samochodowymi i mogą wymienić oponę w swoim aucie. Jak sugeruje kod, zabawa ta kosztuje pieniądze po przekroczeniu limitu testów na jeden wywołanie. Czas odpowiedzi mógłby być szybszy (to meczanie się na wysokim poziomie, aby rozwiać iluzję niektórych osób, że ChatGPT może wszystko).

Przykład fałszywej informacji generowanej przez ChatGPT:

Błędna odpowiedź od chatbota opartego na ChatGPT. (obraz został przetłumaczony automatycznie).

Oto moje stwierdzenie, które również może wpłynąć na moją własną AI, ale nie na ChatGPT: Ciasteczka nie są plikami tekstowymi, lecz zestawami danych. ChatGPT więc będzie odpowiedzieć zawsze błędnie, dopóki dalej.

Pamiętajmy, że ChatGPT jest sprawdzonym modelu językowym o niezwykle wysokim poziomie rozwoju.

Niestety ChatGPT opiera się na tak wielu milionach lub miliardach dokumentów, że zbyt wiele niewłaściwego powszechnego wiedza i za mało dokładne specjalistyczne wiedza trafiły do sztucznego mózgu.

Szukanie Bing od Microsofta jest również napędzane przez AI. Microsoft zaangażował się finansowo niedawno w OpenAI, aby skorzystać z haju ChatGPT. Gdy na proste pytania o wyszukiwanie przychodzi do gry AI Bing, wyniki są szybko błędne lub absurdalne. W przeciwieństwie do tego, gdy Bing szuka konwencjonalnie, wyniki często leżą w zakresie oczekiwań. Najlepsze wyniki często osiągane są przy tradycyjnym wyszukiwaniu. Różnica polega na tym, że odpowiedzi z wyników wyszukania są cytowane, ale nie abstrahowane, czyli nie przekształcone w własne słowa AI.

Wykład impulsowy na IT Club Mainz 6 Rheinhessen dnia 05.09.2023 w Gutenberg Digital Hub w Moguncji. (obraz został przetłumaczony automatycznie).

Lepiej prawdziwa, cytowana odpowiedź niż fałszywa odpowiedź w własnych słowach.

Lepsza rozwiązanie

Lepsza rozwiązanie często daje prawidłowe odpowiedzi i pozwala użytkownikowi na możliwość rozpoznania, być może nieprecyzyjnych lub błędnych odpowiedzi, aby móc je skrytycznie ocenić. Czy odpowiedź może być nieprecyzyjna lub błędna, można to zidentyfikować przy pomocy własnej AI firmy, zupełnie inaczej niż w przypadku użycia czarnej skrzynki o nazwie ChatGPT.

Przykładem zastosowania własnych systemów AI w firmie jest sytuacja, gdy potrzebne są dokładne odpowiedzi lub gdy często trzeba przeglądać własne dokumenty. ChatGPT w takich przypadkach zawodzi albo jest zbyt drogi, ponieważ OpenAI obciąża użytkownika opłatami za używanie.

Automatyzacja, weryfikacja i optymalizacja są cechami, które głównie systemy AI własnościowe przedsiębiorstw oferują, nie zaś Black Boxe jak ChatGPT.

Zależność od innych osób nie wydaje się być najlepszą strategią. Wiemy o tym z ostatnich lat. Przykładami mogą być systemy i platformy Google, Microsoftu, Meta lub Apple'a.

Do dokładności danych, o której mowa jest w tytule artykułu: Obowiązek posiadania i przetwarzania danych osobowych zgodnie z prawidłowością wynika z art. 18 ust. 1 RODO. Jeśli dokładność takich danych jest kwestionowana lub ich przetwarzanie nie jest już uzasadnione, osoba, której dane dotyczą może żądać ograniczenia przetwarzania.

Aby nawet dla danych bez osobowego związku ich poprawność jest często fundamentalna. Gdy adwokat np. włączy odpowiedź chatbota do swojego pisma, lepiej byłoby, gdyby to, co tam jest napisane, było prawidłowe i przetrzymało badanie.

W przypadku badań naukowych lub w dokumentach patentowych byłoby katastrofą, jeśli fałszywe instrukcje lub fałszywe wnioski wpadłyby do pracy. Prawnie ryzykowny jest transfer krytycznych danych do osób trzecich. Dane mogą być krytyczne, gdy np

  • tajemniczy
  • Chroniony prawem autorskim
  • osobiste lub
  • Poufnie

Zginięła.

Wiedza faktograficzna

Dostępność systemu AI do przetwarzania tekstu znacznie się poprawia, jeśli istotne fakty są eksplizitnie wprowadzane do elektronicznego mózgu. To nazywa się Groundingiem. Microsoft wykorzystuje to rzekomo w swojej wyszukiwarce Bing, ale nie udaje się mu to, jak pokazują liczne przykłady. Poprawnie wykonany Grounding pomaga eliminować szeroko rozpowszechnione fałszywe informacje.

Po tym, jak została własnej firmie AI przygotowana, dostarcza ona również lepsze odpowiedzi niż ChatGPT, a mianowicie wiedzy, która jest istotna. Kto był Goethe, nasz własny system AI nie musi to wiedzieć. Ten niepotrzebny dodatkowy wiedzy obciąża jedynie model AI i prowadzi do fałszywych oświadczeń, co najmniej do mniejszej skuteczności („AI widzi las przed drzewami nie” ) lub wolniejszych odpowiedzi.

Oto przykład odpowiedzi, która została wygenerowana z Dr. RODO Wissensbestand i jest znacznie lepsza (i przede wszystkim prawidłowa) niż wyniki Microsoft Bing i ChatGPT:

Odpowiedź samodzielnych systemów RODO AI na pytanie "Co to są pliki cookies?. (obraz został przetłumaczony automatycznie).

Dostępne wiedza przedsiębiorstwa cechuje się tym, że jest dość łatwo przeglądana, występuje ona w postaci dokumentów i ich twierdzenia są a priori uznawane za prawdziwe (lub bardziej wiarygodne niż zewnętrzne źródła). Własna maszyna do wyszukiwania AI dla wiedzy przedsiębiorstwa ma kilka korzyści.

Pierwszym jest samodzielna AI przedsiębiorstwa, niezależna od innych osób. Pytanie o ocenę skutków przetwarzania danych osobowych (DSFA) w tym przypadku staje się mało istotne lub wręcz nieistotne. Dane poufne lub zaufane są dobrze chronione w własnych systemach.

Drugim może być samowystarczalna AI przedsiębiorstwa dostosowywana do własnych potrzeb. Jeśli spojrzicie na przykład programowy powyżej, możecie zauważyć następujące rzeczy:

  1. Z pomocą Pythona można zbudować systemy AI w kilku linijkach kodu.
  2. Złożoność nie leży w programie, ale w modelu AI, który musi być zbudowany tylko raz.
  3. Mały krok prowadzi do wielkiego kroku.

Ekonomiczne zastosowania o znacznym walorze dodatkowym są możliwe. Własne systemy AI są nawet często tańsze niż korzystanie z interfejsu ChatGPT, nie licząc wymienionych wad wynikających z korzystania z systemu trzeciego.

Wynik

Sztuczna inteligencja jest przez wielu przesławiana lub źle oceniana, prawdopodobnie z powodu uzasadnionej entuzjazmu wobec nowych możliwości. Ogólne inteligencje takie jak ChatGPT są idealnie do tego przeznaczone: by odpowiedzieć na ogólne pytania, bez pretensji do wiarygodności czy nawet poprawności. To jest wyraźnie widoczne w interfejsach użytkownika takich systemów, które nie zawierają żadnych wskazówek, że wyniki powinny być starannie sprawdzone lub może pojawić się błędna odpowiedź.

Niewiele linij kodu wystarcza, aby za pomocą 100 miliard neuronów sztucznych wygenerować błędną odpowiedź. Kilka więcej linij kodu pomaga w uzyskaniu prawidłowych odpowiedzi przy użyciu własnego systemu.

Przedsiębiorstwa, które chcą zastosować AI muszą najpierw rozwiązać jedną kwestię: dla czego ma być użyta ta AI? Jeśli ta kwestia nie może zostać rozwiązana, to prawdopodobnie jedno jest pewne. To przedsiębiorstwo nie potrzebuje systemu AI lub jeszcze nie wie dlaczego.

Osobiste korzystanie z ChatGPT i podobnych systemów jest naprawdę interesujące, ale zupełnie inne niż korzystanie z chatbotów lub systemów AI w ogóle w firmie.

Jeśli przedsiębiorstwu udało się problem, który można rozwiązać przy pomocy AI, warto sprawdzić, czy ten sam problem można rozwiązać za pomocą własnego systemu AI.

About the author on dr-dsgvo.de
My name is Klaus Meffert. I have a doctorate in computer science and have been working professionally and practically with information technology for over 30 years. I also work as an expert in IT & data protection. I achieve my results by looking at technology and law. This seems absolutely essential to me when it comes to digital data protection. My company, IT Logic GmbH, also offers consulting and development of optimized and secure AI solutions.

Inteligencja sztuczna: histeria i przesadzenie, czy racjonalne oczekiwania?