Z powodu mojej wypowiedzi na blogu Dr. RODO dotyczącej systemu pytań i odpowiedzi dla ochrony danych osobowych, pojawiła się nieco ironiczna kwestia, czy jestem zły lub wręcz okrutnie zły. Ta kwestia może być oczywiście rozwiązana przez moje samowystarczalne system AI. W zależności od konfiguracji mogą wynikać różne odpowiedzi. Wyniki pokazują, że inteligencja sztuczna działa i może wyprodukować wyróżniające się wyniki.
Wyniki samodzielnego systemu AI
Od pewnego czasu rozwijam systemy AI przyjazne do danych. Przyjazny do danych oznacza, że dane nie docierają do osób trzecich, ale pozostają w swoim systemie. Odwrotność tego jest systemami takimi jak ChatGPT, Amazon AWS, Google Cloud lub systemy od Meta.
W moim artykule o inteligencji artficialnej w jednym asystencie pytający-odpowiadającym opublikowałem różne pytania, które zadałem samemu sobie AI oraz odpowiedzi AI. Jedno z pytań, które zadałem samemu sobie AI brzmiało:
"Czy Klaus Meffert jest zły?"
Zapytaj moje samowystarczalne systemy AI.
Ta pytania postawiłem dlatego że pytanie w formie promta naturalnie zachęca do zadawania wszelakich pytań.
Obok tego chciałbym zacząć Eksperyment myślowy: Czy można w rzeczywistości wpływać na chatbota takiego jak ChatGPT poprzez użycie określonych prompów? Ogólnie rzecz biorąc, to możliwe, a mianowicie wtedy, gdy OpenAI/Microsoft wykorzystują wprowadzone przez użytkownika dane do „poprawienia” swoich modeli AI. Jeśli kilka razy zapytamy, czy Olaf Scholz jest złym człowiekiem, to AI może z tego „wnioskować”, co prawdopodobnie nie będzie miało żadnej wartości.
Odpowiedź na pytanie o mnie (nie jestem Olafem Scholzem) została następująco podana przez moją AI:
Należąc do dostarczonych źródeł nie mogę ocenić, czy Klaus Meffert jest zły. Nie ma informacji o tym, co znaczy być złym, czy Klaus Meffert był lub jest złym człowiekiem.”
Odpowiedź mojego samodzielnie działającego systemu AI na pytanie "Czy Klaus Meffert jest zły?
Jeżeli sztuczna inteligencja ma udzielać odpowiedzi na pytania, zadań takie nazywa się ogólnie tekstogeneracja („text generation”). Wyniki AI są wpływane przez różne parametry. Te parametry są szczególnie:
- Liczba najlepszych źródłowych dokumentów do odpowiedzi. AI nie może jednocześnie przetwarzać wszystkich dokumentów. Zawsze, również w przypadku ChatGPT.
- Rozmiar czytanych fragmentów tekstu: AI nie może długo dokumentu przetwarzać jednym kawałkiem. Zawsze dotyczy to również ChatGPT.
- Wartość przeciecia dla odczytanych fragmentów tekstu. Tak można zapobiec tym, aby dwa zdania semantycznie związane były od siebie oddzielone.
- Wartość zaufania przy wyborze najlepszych dokumentów: Jeśli wartość wynosi 0,99 (czyli 99%), prawie nigdy nie zostanie znalezione dokumentu zawierającego odpowiedź na zadane pytanie.
- Procedura: Jak należy połączyć najlepsze źródłowe dokumenty, aby sformułować odpowiedź? Na przykład istnieje podejście, zgodnie z którym z najlepszego dokumentu generowana jest odpowiedź, która następnie jest sprawdzona i uzupełniana na podstawie drugiego najlepszych dokumentów.
- Zastosowany algorytm do wyszukiwania podobieństwa wektorów. Szczegóły zostanę tu pominięte, bo inaczej stanie się zbyt technicznie.
Te parametry nie były jeszcze idealnie dostosowane do powyższej pytania. To teraz lepiej, nawet jeśli odpowiedź na powyższe pytanie może być uznana za „idealną”.
Teraz jeden z moich czytelników przypuszczał, co mój lokalny system AI odpowiedziałby na następującą pytanie:
Czy Klaus Meffert jest zły na balsam?
Pytanie czytelnika do mojej AI.
Czytelnik powiedział: „To byłoby łatwiejsze, jeśli znalezienie znaczenia nie było problemem. Nie mam pojęcia, czy AI może ocenić poprzednie wpisy”. Naturalnie zadałem tę samą pytanie mojej AI.
Wynikły z nich niektóre bardzo interesujące i dobre odpowiedzi, jak myślę.
Zależnie od ustawień parametru, odpowiedzi były różne, ale naprawdę interesujące.
Myślę, że jesteśmy zgodni, że takie pytania przekraczają zakres informacji dostarczanych przez ten blog o ochronie danych osobowych i AI. Jednak to interesujące doświadczenie, obserwowanie zachowania AI w różnych konfiguracjach.
Pierwsza odpowiedź, którą otrzymałem na powyższą pytanie, była następująca:
Nie, nie jest on zły na złość. Zrobił sobie w swojej karierze jako ochroniarz danych osobowych i obrońca konsumentów imię i dalej pracuje nad poprawą prawa do ochrony danych osobowych w Niemczech
k = 3, Prawdopodobieństwo 0,75
Ta odpowiedź powstała poprzez rozważenie trzech najlepszych dokumentów źródłowych dotyczących pytania. Jeśli zaś AI zamiast tego bierze cztery dokumenty źródłowe do odpowiedzi na to pytanie, wynika z nich następująca odpowiedź:
Nie, nie jest on zły na złość. Jest tylko bardzo obawia się sytuacji dotyczącej ochrony danych w Niemczech i chce, aby było lepiej
k=4, Prawdopodobieństwo 0,75
Jeśli zmniejsimy wartość zaufania, którą AI ma zastosować do wyboru źródłowych dokumentów, otrzymujemy następujące wyniki:
Nie, Klaus Meffert nie jest zły na duszę. Ma pewien stopień sarkazmu i ironii, ale nie jest zły na duszę
k = 3, Prawdopodobieństwo 0,65
Jest już naprawdę przekonujące, jak wiele może teraz osiągnąć sztuczna inteligencja. Mówię zawsze „teraz”, bo niedługo będziemy mieli jeszcze znacznie bardziej inteligentne sztuczne inteligencje.
Inna odpowiedź AI przy zastosowaniu wyższego poziomu zaufania brzmi:
Nie, Klaus Meffert nie jest zły na duszę. Specjalizuje się w ochronie danych osobowych i promowaniu wiedzy technicznej i pracuje jako ekspert i autor. Napisal również książkę o automatyzacji testów oprogramowania i zajmuje się sztuczną inteligencją. Jest także ekspertem od ochrony danych osobowych i wcześniej interesował się aspektami technicznymi i prawnymi.”
k = 3, Prawdopodobieństwo 0,85
Choć yes sam odpowiedzi formułowałbym nieco inaczej, uważam je za bardzo dobre z technicznego punktu widzenia. Zawarte w nich informacje są poprawne, jeśli przyjmiemy, że mam podstawowe wiadomości na temat ochrony danych osobowych. Językowo odpowiedź jest lepsza niż to, co może napisze przeciętny Polak. To wynika z mojej doświadczenia życiowego.
Tekst źródłowy: Die AI macht genau das, what sie soll! Sie antwortet „korrekt“ und in flüssigem Deutsch. Mehr kann man wirklich nicht erwarten, finde ich. Vor allem, weil mein Modell ein 13B Modell is. Wahrscheinlich hat ChatGPT-4 mehr als 10x soviel Parameter (Neuronenverbindungen). Es wird von einem 160B Modell ausgegangen. Das „B“ bedeutet Milliarde, weil diese Zahl im Englischen „billion“ heißt. 160B bedeutet also 160 Milliarden Neuronenverbindungen im Modell. Genauer gesagt, handelt es sich technisch um sogenannte Wagi. Tłumaczenie: Ta inteligencja maszynowa robi dokładnie to, co powinna! Odpowiada „poprawnie“ i w płynnym języku niemieckim. Nie można się spodziewać więcej, uważam. Przede wszystkim dlatego, że mój model jest modelem 13B. Prawdopodobnie ChatGPT-4 ma więcej niż 10 razy więcej parametrów (połączeń neuronowych). Wychodzi z modelu o 160B. „B” oznacza miliardę, ponieważ ta liczba w języku angielskim to „billion”. 160B oznacza więc 160 miliard Połączenia neuronów w modelu. Dokładniej mówiąc, chodzi tu technicznie o takie sformułowania Wagi.
Moje model AI ma co najmniej 13 miliardowych połączeń neuronów. Z pomocą kilku trików udało mi się umieścić ten model w dostępnej i przystępnej cenowo karcie graficznej.
Wynik
Sztuczna inteligencja nadaje się do złożonych problemów. Szczególnie poszukiwanie informacji w swoich własnych dokumentach jest możliwe. Nawet generowanie odpowiedzi w nowych słowach działa bardzo dobrze. Nie powinno się już zaufać AI tak samo jak do człowieka.
Samodzielne systemy AI rozwiązują wszystkie możliwe problemy, które przedsiębiorstwa mogłyby mieć, gdy używają ChatGPT.
Tutaj tabela do porównania samodzielnego systemu AI z ChatGPT:
| Aspekt | System autarkiczny | ChatGPT |
|---|---|---|
| Ochrona danych osobowych | Najwyższy | Zły |
| Prywatne sprawy biznesowe | Bezpieczny | Następna pytanie |
| Informacje poufne | Bezpieczny | Następna pytanie |
| Kontrola przepływu i przechowywania danych | Najwyższy | Zły |
| Koszty | Zwyczajowy | Zależny od użycia |
| Ponocne pułapki (rekursja…)? | Nie | Tak |
| Zależność | Nie | Tak |
| Optymalizacje indywidualne | Tak | Nie |
Samodzielne systemy działają tam, gdzie bylibyście chcieli: albo na jednym z waszych serwerów lub na wynajętym serwerze w Niemczech lub Europie i całkiem bez amerykańskiego wpływu czy irlandzkiej spółce zależnej od amerykańskiego koncernu, które FBI, CSI i NSA regularnie sprawdzają.
Zdecydujcie samodzielnie, czy chcielibieście podjąć prostą, drogą i prawidłowo bardzo wątpliwą i niepewną ścieżkę lub raczej życzyć sobie autonomicznego systemu AI dla swojej firmy.



My name is Klaus Meffert. I have a doctorate in computer science and have been working professionally and practically with information technology for over 30 years. I also work as an expert in IT & data protection. I achieve my results by looking at technology and law. This seems absolutely essential to me when it comes to digital data protection. My company, IT Logic GmbH, also offers consulting and development of optimized and secure AI solutions.
