Drücke „Enter”, um zum Inhalt zu springen.
Hinweis zu diesem Datenschutz-Blog:
Anscheinend verwenden Sie einen Werbeblocker wie uBlock Origin oder Ghostery, oder einen Browser, der bestimmte Dienste blockiert.
Leider wird dadurch auch der Dienst von VG Wort blockiert. Online-Autoren haben einen gesetzlichen Anspruch auf eine Vergütung, wenn ihre Beiträge oft genug aufgerufen wurden. Um dies zu messen, muss vom Autor ein Dienst der VG Wort eingebunden werden. Ohne diesen Dienst geht der gesetzliche Anspruch für den Autor verloren.

Ich wäre Ihnen sehr verbunden, wenn Sie sich bei der VG Wort darüber beschweren, dass deren Dienst anscheinend so ausgeprägt ist, dass er von manchen als blockierungswürdig eingestuft wird. Dies führt ggf. dazu, dass ich Beiträge kostenpflichtig gestalten muss.

Durch Klick auf folgenden Button wird eine Mailvorlage geladen, die Sie inhaltlich gerne anpassen und an die VG Wort abschicken können.

Nachricht an VG WortMailtext anzeigen

Betreff: Datenschutzprobleme mit dem VG Wort Dienst(METIS)
Guten Tag,

als Besucher des Datenschutz-Blogs Dr. DSGVO ist mir aufgefallen, dass der VG Wort Dienst durch datenschutzfreundliche Browser (Brave, Mullvad...) sowie Werbeblocker (uBlock, Ghostery...) blockiert wird.
Damit gehen dem Autor der Online-Texte Einnahmen verloren, die ihm aber gesetzlich zustehen.

Bitte beheben Sie dieses Problem!

Diese Nachricht wurde von mir persönlich abgeschickt und lediglich aus einer Vorlage generiert.
Wenn der Klick auf den Button keine Mail öffnet, schreiben Sie bitte eine Mail an info@vgwort.de und weisen darauf hin, dass der VG Wort Dienst von datenschutzfreundlichen Browser blockiert wird und dass Online Autoren daher die gesetzlich garantierten Einnahmen verloren gehen.
Vielen Dank,

Ihr Klaus Meffert - Dr. DSGVO Datenschutz-Blog.

PS: Wenn Sie meine Beiträge oder meinen Online Website-Check gut finden, freue ich mich auch über Ihre Spende.
Ausprobieren Online Webseiten-Check sofort das Ergebnis sehen

Mity i błędne przekonania na temat sztucznej inteligencji

0
Dr. DSGVO Newsletter detected: Extended functionality available
More articles · Website-Checks · Live Offline-AI

Wszyscy uważają, że sztuczna inteligencja jest świetna. Dlatego wszyscy mówią o sztucznej inteligencji. Ponieważ sztuczna inteligencja jest bardzo złożoną dziedziną techniczną, istnieje wiele półprawd lub fałszywych stwierdzeń. Cała sprawa jest napędzana obietnicami marketingowymi Microsoftu i innych firm. Ten artykuł wyjaśnia, co jest prawdą, a co należy zaklasyfikować jako fakty alternatywne.

Powszechne błędne przekonania na temat sztucznej inteligencji

Ze względu na często jednostronne raporty, które zawsze obracają się wokół produktów ChatGPT lub Microsoft AI, pojawia się wiele nieporozumień. Niektóre z nich to:

  • Modele językowe opierają się na statystykach i dlatego nie są inteligentne.
  • System sztucznej inteligencji to algorytm.
  • Sztuczna inteligencja jest narzędziem.
  • System sztucznej inteligencji może działać precyzyjnie.
  • ChatGPT nie jest inteligentny.
  • ChatGPT jest najlepszym rozwiązaniem.
  • AI może być utożsamiana z ChatGPT (OpenAI), Claude (Anthropic), Mixtral (Mistral) lub Command R+ (Cohere). Nie ma nic innego.
  • Dane są bezpieczne w firmie Microsoft.
  • Sztuczna inteligencja może być obsługiwana zgodnie z prawem.
  • Tokeny nie są prawdziwymi danymi.
  • Modele AI nie przechowują żadnych danych osobowych.

Z tych błędnych założeń często wynikają fałszywe oświadczenia. Niektóre z nich zostaną poniżej wyjaśnione. W zastępstwie innych usług chmury będziemy mówili tylko o ChatGPT.

Fałszywe stwierdzenia na temat sztucznej inteligencji

Poniższe stwierdzenia zostały znalezione w takiej czy innej formie w mediach społecznościowych. Stwierdzenia te zostały sformułowane w sposób ogólny w miejscach, w których zostały znalezione, lub były konkretne, ale mimo to nieprawidłowe.

ChatGPT nie jest inteligentny

Po definicji inteligencji maszynowej według Dr. DSGVO ChatGPT jest inteligentny. Ta definicja inteligencji maszynowej brzmi:

ChatGPT jest również inteligentny według Alana Turinga, genialnego matematyka podczas II wojny światowej i twórcy maszyny kodującej Enigma: ChatGPT przechodzi test Turinga. Test ten sprawdza, czy odpowiedzi maszyny są nieodróżnialne od odpowiedzi człowieka. Wręcz przeciwnie: ChatGPT często (można powiedzieć, że prawie zawsze) udziela znacznie lepszych odpowiedzi niż przeciętnie inteligentny człowiek.

Nowa definicja przepisu dotyczącego AI definiuje ChatGPT (przynajmniej) jako inteligentną. Zobacz Artykuł 3 AI Act z dnia 12.07.2024.

Czym jest inteligencja? Właśnie podano definicję sztucznej inteligencji. Po prostu usuń dwukrotnie atrybut "sztuczny" z definicji. Mamy definicję inteligencji. Ludzie nie mają monopolu na inteligencję, nawet jeśli wielu chciałoby, aby tak było.

Inteligencja opiera się na ludzkich standardach

Wiele osób uważa, że inteligencja jest czymś, co jest określane przez ludzi. W zmienionej obecnie definicji sztucznej inteligencji w rozporządzeniu UE w sprawie sztucznej inteligencji stwierdzono, że sztuczna inteligencja powinna osiągać cele "wyznaczone przez ludzi…".

Nie ma ani jednego powodu dla tego błędnego przekonania. Ludzie są nieistotni, jeśli chodzi o określenie, czym jest inteligencja. Do tej pory mogli być co najwyżej wykorzystywani jako miernik. W przyszłości prawdopodobnie nie będzie to już miało miejsca.

Nawiasem mówiąc, inteligentne zachowanie przypisuje się również niektórym gatunkom zwierząt. Oczywiście zwierzęta nie są ludźmi.

ChatGPT jest najlepszym rozwiązaniem

To zależy od tego, do czego służy. ChatGPT jest często świetnym silnikiem odpowiedzi dla codziennych zadań. Jest to szczególnie prawdziwe w przypadku wiedzy o świecie lub typowych zadań, które są również odzwierciedlone w danych szkoleniowych ChatGPT.

ChatGPT wydaje się być nieodpowiedni do wszystkich konkretnych zadań, które muszą być przetwarzane w dość profesjonalny sposób. Jeden przykład: streszczanie tekstu bez halucynacji. Inny przykład: wyszukiwanie wiedzy.

ChatGPT z pewnością nie może i nie chce skrobać dużej części Internetu lub strony internetowej dla Ciebie. W końcu albo płacisz "tylko" swoimi danymi i danymi innych. Albo płacisz 20$ miesięcznie lub marną kwotę za każde wywołanie API.

ChatGPT może zatem uzyskać dostęp tylko do treści, które są już znane lub nieznane i mają niewielki rozmiar. Termin "mała objętość" odnosi się do liczby dokumentów lub stron internetowych.

ChatGPT nie jest dobrym rozwiązaniem do zadań takich jak digitalizacja dokumentów, ponieważ istnieje wiele specjalnych funkcji, które należy wziąć pod uwagę.

ChatGPT jest zły

To zależy po co. ChatGPT nie jest wyszukiwarką. Jeśli używasz systemu niezgodnie z jego przeznaczeniem, nie powinieneś być zaskoczony miernymi odpowiedziami. System sztucznej inteligencji nie jest również przeznaczony do liczenia liter w słowie.

Sztuczna inteligencja jest dobra w kreatywnym rozwiązywaniu złożonych zadań. Ta sama SI jest kiepska w wykonywaniu precyzyjnych zadań. Zupełnie jak ludzie!

Szkolenie AI jest kosztowne

Prawdą jest, że szkolenie dużych modeli językowych, takich jak ChatGPT, jest bardzo kosztowne i czasochłonne.

Jednak prawdą jest również, że możliwe jest bardzo tanie trenowanie własnych modeli językowych AI. Powodem jest to, że te niestandardowe modele są wyspecjalizowane do konkretnych przypadków użycia. W wielu przypadkach możliwe jest wytrenowanie takich modeli na laptopie lub własnym serwerze AI w ciągu zaledwie kilku godzin.

Ponieważ własne komputery AI i tak są zazwyczaj włączone i działają, koszty szkolenia AI są zerowe.

W większości przypadków szkolenie AI jest zatem możliwe bezpłatnie.

Wnioskowanie jest kosztowne

Wnioskowanie to zadawanie pytań modelowi sztucznej inteligencji, takich jak rozmowa z modelem językowym, takim jak ChatGPT.

Prawdą jest, że duże modele językowe, takie jak ChatGPT, wymagają dziesiątek, a nawet setek serwerów w tym samym czasie, aby wygenerować odpowiedź na pytanie użytkownika. Jest to kosztowne.

Prawdą jest jednak również to, że konsultacja z samodzielnie obsługiwanym modelem językowym AI nic nie kosztuje.

Oznacza to, że w większości przypadków koszty wnioskowania są zerowe. Nie obchodzi nas, ile OpenAI płaci za swoje serwery, tak jak OpenAI nie obchodzi, ile my płacimy za nasze komputery.

Microsoft Azure i ChatGPT są bezpieczne

Wiele sprzedają swoją "rozwiązanie" jako innowacyjne. Jedna bank nawet wspomniał o wprowadzeniu własnej (prywatnej) AI, jednak ma na myśli Microsoft Azure. Azure jest przeciwieństwem bezpieczeństwa. Sam Microsoft jest celem licznych ataków hakera. Ponadto należy zauważyć, że Microsoft nie przykłada najwyższej prioritet temu tematowi bezpieczeństwa.

Do tego dochodzi ogromny głód danych ze strony Microsoftu. Nowy Outlook chce pobierać e-maile od klientów do własnych celów; Windows stale wysyła dane użytkowników do Microsoftu itp.

Microsoft Copilot jest dobry

Wstępne testy pokazują, że jest odwrotnie. Copilot powinien podsumować tekst. Instrukcja (podpowiedź) była bardzo prosta i jednoznaczna. Tekst został podany bezpośrednio. Długość tekstu była dość krótka, ponieważ pole wprowadzania w interfejsie internetowym Copilota nie pozwalało na więcej.

Raport testowy z załączonymi screenshotami ujawnia, że Copilot wydaje się być całkowicie nieprzydatny w przypadku niektórych zadań. Nawet przy dobrej woli nie udaje się znaleźć nic pozytywnego w wynikach Copilota. Podsumowanie fragmentu artykułu na blogu Dr. DSGVO było tak źle, że człowiek mógłby się za to skrzywdzić. Copilot tworzył wiele fałszywych oświadczeń i nie wykonał żadnej zadań.

Zamiast tego Microsoft robi tak na każdym miejscu jakby Copilot był świetną rozwiązaniem i odpowiedzi były bezpośrednio wykorzystywane. Nikąd nie można było przeczytać, że odpowiedź może być kiedyś błędna lub podobne.

Modele językowe oparte na statystykach

Tak, to prawda. Dokładnie tak działa gramatyka. Dokładnie tak działa inteligencja. Zobacz ludzki mózg. Modele językowe nie są szkolone w taki sam sposób jak ludzie, którzy podejmują kolejne kroki, aby udzielić odpowiedzi.

Cała nasza egzystencja opiera się na prawdopodobieństwie: Porównaj rozpad radioaktywny lub, bardziej ogólnie, fizykę kwantową. Wszystko opiera się na przypadku. Wszystko. Jeśli to konieczne, zapytaj kogoś, kto wie coś o fizyce kwantowej.

Nie ma znaczenia, dlaczego system jest inteligentny. Istotne są jedynie wyniki. Kto jeszcze wierzy, że ludzkie mózg nie jest "hackbar", dla którego może być interesujący raport o sztucznym mózgu kota, który udało się wykonać taką symulację ruchów i związanych z nimi aktywności mózgowych.

Sztuczna inteligencja może być wykorzystywana zgodnie z prawem

Teoretycznie może tak być. W praktyce pojawiają się pewne pytania:

  1. Skąd pochodzą miliardy, a nawet biliony rekordów danych, które zostały wprowadzone do systemu AI w celu jego szkolenia?
  2. W przypadku usług w chmurze, takich jak ChatGPT lub Azure, pojawia się pytanie, czy warunki prawne są wystarczające.
  3. Czy § 44b UrhG (niemieckiej ustawy o prawie autorskim) może być w ogóle przestrzegany?
  4. Jak można usunąć dane z istniejącego modelu AI?

Do pytania 3: niemiecki ustawodawca domaga się, aby crawlers mogli czytać treści z witryn internetowych tylko wtedy, gdy administrator witryny nie sprzeciwił się temu. Sprzeciw miałby być umieszczony, według Niemiec, w informacji o firmie lub warunkach korzystania. Jest to całkowicie praktycznie i technicznie nierealizowalne. Crawlers nie rozumieją formuł sprzeciwu w języku naturalnym. Nie ma crawlerów opartych na sztucznej inteligencji. Są tylko głupie crawlers, które dostarczają treści dla systemów, które mają stać się bardziej inteligentne lub już takie są. plik robots.txt byłby dobrym rozwiązaniem. Niestety Niemcy przegrali tę grę. Ponadto administratora crawlera musiałoby później udowodnić, że nie było sprzeciwu. Jest to w praktyce niemożliwe lub prawie niemożliwe do zrealizowania. Zatem crawlowanie niemieckich witryn internetowych byłoby dużym ryzykiem prawnym i często również nielegalne.

Do pytania 1: Dane pochodzą z Internetu. Teksty, obrazy i inne dzieła są samodzielnie chronione prawem autorskim. Ochrona praw autorskich powstaje automatycznie przy tworzeniu dzieła, pod warunkiem że dzieło ma wystarczającą wartość twórczą. W związku z tym te treści mogą być czytane jedynie wtedy, gdy właściciel praw nie odmówi zgody (patrz pytanie 3) lub tylko tak długo, aż właściciel praw nie odmówi zgody. Generatywna AI generuje wyniki, które mogą być chronione prawem autorskim i tym samym są nielegalne. Ponieważ jedynie czytanie może być dopuszczalne, ale nie tworzenie odpowiedzi przez AI.

Usuwanie danych z modeli AI nie jest możliwe w sposób wiarygodny.** Model musi więc być nadal używany niezgodnie z prawem, jeśli ktoś chce, aby jego dane nie były widoczne w modelu (lub przynajmniej w odpowiedziach modelu). Usunięcie modelu i ponowne szkolenie go jest dla ogromnych modeli takich jak ChatGPT opcją niezastąpioną, gdyż jest zbyt kosztowne i wymaga zbyt wiele czasu. Nowe zapytania o usunięcie danych byłyby procesem bez końca. W przypadku AI offline problem ten nie występuje.

Do pytania 2: Zobacz powyżej dla Wpływy, dlaczego Microsoft i jego platformy są uważane za niebezpieczne. Do tego dochodzą dokumenty prawne, które Microsoft i OpenAI nakładają na użytkowników. Pyta się, kto właściwie przegląda te dokumenty i co się stanie, jeśli zostaną znalezione błędy. Dyskusja o problemach może być popularną taktyką, ale nie rozwiązuje samego problemu. Ponadto Microsoft, jak pokazują wiele przykładów (dane telemetryczne Windowsa, nowy Outlook z ogromnym apetytem na dane i dostęp do poczty klienta za pomocą danych logowania klienta…), chce zebrane dane i nic więcej. Dlaczego powinniśmy ufać tym firmom? Nie ma przyczyny.

Sztuczna inteligencja to algorytm

"Algorytm jest […] jednoznaczna instrukcja działania do rozwiązania problemu lub klasy problemów." (Źródło: Wikipedia, pogrubienie tu dodane).

System AI opiera się na sieci neuronowej. Czy można go nazwać algorytmem w szerszym sensie, jest więcej niż kwestia wątpliwości. Bezsporny jest to, że sieć neuronowa nie jest dla obserwatora ludzkiego (zwłaszcza gdy chodzi o głębokie sieci – stąd też termin Deep Learning).

W końcu ludzie również nie są opisywani jako algorytmy. Ich mózg również składa się z sieci neuronowej.

Zatem należałoby odmówić wiarygodności twierdzeniu, że system AI jest algorytmem, przy bardziej szczerym spojrzeniu. Na Wikipedia nie traktuje się systemu AI jako równoważnego z algorytmem. Zamiast tego postęp w treningu przypisuje się algorytmowi, co jest uzasadnione, ponieważ poprawa sieci neuronowej podczas treningu odbywa się na mocy wyraźnych reguł obliczeniowych.

Jeśli uważasz, że sztuczna inteligencja to algorytm: podziel się przypadkiem, w którym uważasz, że zautomatyzowane rozwiązanie problemu NIE jest algorytmem. Jesteśmy ciekawi!

Sztuczna inteligencja jest narzędziem

Jest to mniej więcej tak samo prawdziwe, jak stwierdzenie, że "samochód to kupa materii" lub "ciasteczka to pliki". Wtedy wszystko lub nic byłoby narzędziem. Zawartość informacyjna wynosiłaby wtedy zero. Stwierdzenie to nie jest więc użyteczne.

Niektórzy mówią AI-gestützte Tools, gdy mówią o AI jako narzędziu. Błędy językowe nie prowadzą do lepszego zrozumienia.

W każdym razie inteligencja nie jest narzędziem, ale (wyjątkową) właściwością systemu.

Modele językowe nie mogły logicznie wywnioskować

Fakt jest: Modeli językowe mogą hochkomplexe matematyczne pytania lepiej rozwiązać niż prawie każdy człowiek na Ziemi. Założmy, że system AI robi to, czytając wszystkie możliwe zagadnienia i ucząc się z nich. Wtedy już użyto słowa "nauczyć się". Pozostając przy "czytać", może być tak, że system AI może rozwiązać wszystkie możliwe, dotychczas nieznane problemy, jeśli są tylko do połowy podobne do znanych problemów. Gdzie jest różnica w stosunku do większości ludzi?

Jedno z zadań AIMO. Pokazano odpowiedź systemu AI, który również dostarczył rozwiązanie. Źródło: patrz poniższy link.

Proszę przeczytajcie zadania matematyczne, które zostały podane do rozwiązania systemom AI w ramach AI Math Olympiad (AIMO). Jeśli w ogóle zrozumieliście te zadania, to są one oczywiście bardzo małym odsetkiem ludzkości, która może się poszczycić głębokim zrozumieniem matematyki.

Zresztą autor tego wpisu z pomocą najlepszego modelu matematycznego rozwiązał bardzo wymagającą zagadkę matematyczną, o której wiedział jedynie (od matematyka), że można ją rozwiązać za pomocą równań Diophantusa. Nie mam pojęcia, czym są te równania Diophantusa. Zagadką jest historia marynarzy i kokosów i prawdopodobnie nikt na Ziemi nie byłby w stanie ją rozwiązać samodzielnie. Do tego celu został długi niemiecki [!] tekst zagadki wprowadzony do modelu matematycznego pisanej po angielsku. Odpowiedź AI była błędna, ale prógna droga rozwiązania była tak bliska prawidłowej, że z niewielkim wysiłkiem udało się znaleźć poprawną odpowiedź samodzielnie.

Tokeny nie są prawdziwymi danymi

Dokładniej: niektórzy uważają, że tylko dlatego, że teksty są przechowywane jako liczby w modelach językowych, modele językowe nie przechowują oryginalnych danych.

Modele językowe przechowują tekst w postaci ciągów liczbowych (wektorów). Dzięki temu słowa są rozdzielane na kawałki, które nazywamy tokenami. Każdy token odpowiada liczbie. Ta przyporządkowanie kawałków słów do liczb jest dla każdego modelu językowego unikatowe i jest określone w słowniku (Vokabular). Ten słownik jest przy każdym modelu językowym dostępny jako plik tekstowy. Można go zawsze przeglądnąć i ocenić.

Sekwencja liczb 4711, 0815, 9933 mogłaby odpowiadać ciągom liter Maxi, mi, lian. Wydaje się, że liczby można odwzorować na słowa. W związku z tym serie liczebne są osobiste, jeśli kodowane przez nie litery przedstawiają dane osobiste. Dane również pośrednio odnoszące się do osoby są osobiste (porównaj Art. 4 Nr 1 RODO).

Nadal model językowy tworzy swoją wyjściową przez kumulatywne wartości prawdopodobieństwa tokenów. Nie są więc rozważane tylko dwa tokeny, ale cała łańcuch tokenów. Parametr techniczny, który to steruje, nazywa się top_p.

Teza z Hamburga (patrz poniżej) jest zatem zasadniczo błędna. Wydaje się, że został napisany w taki sposób, aby zalegalizować wszystkie systemy sztucznej inteligencji, z których większość jest prawdopodobnie nielegalna.

Modele językowe AI nie będą przechowywać żadnych danych osobowych

Argumentacja Hamburskiego Urzędu ds. Ochrony Danych Osobowych (HmbBfDI) brzmi następująco: Jest niezwykle trudne, aby wydobyć dane osobowe z modeli językowych. Trybunał Sprawiedliwości Unii Europejskiej powiedział, że odtworzenie odniesienia do osoby może być uznane za możliwe tylko wtedy, gdy środki i nakłady wymagane do tego są w zwykłym zakresie. HmbBfDI mówi, że jedynie przy użyciu skomplikowanej, prawnie nielegalnej ataki na prywatność można wydobyć dane osobowe z modeli językowych. Z powodu ogromnego nakładu pracy wymaganego do tego, według orzeczenia TSUE te dane nie są danych osobowych.

Oto prosty kontrprzykład, który z łatwością obala HmbBfDI:

Zapytanie do ChatGPT i odpowiedź od ChatGPT. Status: 15.07.2024 (obraz został przetłumaczony automatycznie).

Modele językowe przechowują dane wszystkich osób tak samo. Nawet osoby niepubliczne są w ten sposób przechowywane w modelu językowym, a mianowicie podczas jego pre-trainingu nad training data. Dane treningowe składają się z wielu miliardów dokumentów. Nieprawdopodobnie, że tam tylko Angela Merkel lub inne zupełnie publiczne osoby występują, które zdawać by się należą do mniejszości mających mniej praw do prywatności niż przeciętny obywatel.

Jest nawet możliwość pobrania pełnych cytatu z modelu językowego. Artykuł, do którego odnoszą się powyższe słowa, pokazuje również, że w LLM-ach znajdują się dane osobowe. W przeciwieństwie do założeń HmbBfDI wszystkie duże modele AI są częścią systemu AI. Oznacza to: System AI może interpretować liczby, z których składa się model AI i zamienić je w tekst. Posiadanie samego modelu na dysku twardym bez możliwości jego interpretacji byłoby niekrityczne. Takiego przypadku nie ma u ChatGPT lub GPT-4o. Może istnieć tylko w przypadku otwartego źródłowego modeli językowego, ale nawet teoretycznie. Ponieważ wystarczy pobrać bardzo rozpowszechnioną bibliotekę programistyczną, aby móc interpretować zawartość modelu. Niestety HmbBfDI stworzył techniczny różnica między ChatGPT a GPT-4o, która nie istnieje.

Samo w sobie nie ma to znaczenia:

  1. W przypadku korzystania z LLM często występują dane osobowe. Jeśli zostaną one wprowadzone do obiegu, osoba, która to robi, ponosi odpowiedzialność.
  2. Jeśli LLM nie jest używany, zwykle nie ma znaczenia, jakie dane zawiera. Nikt ich nie widzi.
  3. Nie chodzi więc głównie o przechowywanie danych.

Nie może istnieć coś takiego jak ogólna sztuczna inteligencja

Ta forma inteligencji nazywana jest również AGI. AGI oznacza Artificial General Intelligence. Stojąc na początku, widzimy, że inteligentne roboty biegnące po historii świata nie są jeszcze często obserwowane.

Prawda jest: Wielu przedsiębiorstw już tysiące miliardów dolarów inwestuje w budowę inteligentnych robotów. Do tego potrzebujesz:

  1. Robot (już tam jest, coraz lepszy).
  2. Elektroniczny mózg (już jest, coraz lepszy).
  3. Kogoś, kto umieści skrzynkę mózgową (komputer ze sztuczną inteligencją) na robocie (ten ktoś już tam jest).

Te trzy składniki już istnieją. Samouczające się systemy istnieją oczywiście. Zobacz ChatGPT lub NuminaMath (dalej poniżej). Jest tylko kwestia czasu, zanim roboty będą umieli panować nad naszym światem lepiej niż my sami będziemy w stanie to osiągnąć.

Dopiero za wiele lat sztuczna inteligencja stanie się wszechmocna

Fałszywości tego założenia nie można udowodnić, podobnie jak stwierdzeń w poprzedniej sekcji dotyczącej AGI. Czas pokaże.

Poprawnie jest: Rozwój AI postępuje w przeliczną prędkość. Co przed dwoma tygodniami nie było możliwe, teraz już tak. Dotyczy to np. postępu modeli językowych o kodzie otwartym. Powyższe AIMO zostało wygrane przez model o nazwie NuminaMath, który jest oprogramowaniem o kodzie otwartym. Zadawał on 29 z 50 bardziej skomplikowanych problemów matematycznych, które były przedstawiane w formie tekstu.

Google twierdzi zresztą, że postęp w robotyce został osiągnięty przy pomocy modelu językowego.

Prognoza Dr. DSGVO: W ciągu 10 do 15 lat pojawią się roboty, które będą stanowić poważne zagrożenie dla ludzkości. Może to być również 5 lat (musiałbyś być ekspertem od robotyki, aby wiedzieć na pewno). Ale z pewnością nie minie kolejne 35 lat, zanim będziemy musieli poważnie martwić się o nasze istnienie z powodu przewagi sztucznej inteligencji. Jeśli masz dzieci, ten artykuł przewiduje, że ukształtują one koniec swojego życia w inny sposób, niż jest to dla nich dobre.

Podsumowanie

Oto najważniejsze stwierdzenia w poprawnej formie:

  • ChatGPT to inteligentny system, który znacznie przewyższa ludzi w wielu zadaniach.
  • Inteligencja jest niezależna od ludzi.
  • Sztuczna inteligencja to inteligencja w sztucznym systemie. Możesz sam zdefiniować, co jest sztuczne (nie ma to znaczenia).
  • Zapytanie o modeli językowe nie kosztuje niczego. To dotyczy AI offline, czyli samodzielnie uruchamianych modeli językowych.
  • Trening modeli AI nie kosztuje nic. Dotyczy to treningu na własnej lub wynajmowanej hardware. Ta sprzętowa jest już włączona. Czy na nim będzie działać trening AI czy nie, to dla kosztów sprzętu nie ma znaczenia.
  • AI nie jest algorytmem, lecz niezrozumiałą możliwością rozwiązania wielu problemów.
  • Microsoft Copilot to bezużyteczny system. W każdym razie dotyczy to nawet najprostszych standardowych zadań, które każda sztuczna inteligencja offline może wykonać lepiej.
  • Chmura Azure nie jest bezpieczna. Dowodzą tego liczne incydenty, w których Microsoft nie zabłysnął szczególnie.
  • Sztuczna inteligencja stanie się zagrożeniem dla ludzkości w ciągu zaledwie kilku lat. Lub jak ujął to Sam Altmann z OpenAI: "AI zabije nas wszystkich. Ale do tego czasu będzie niezwykle przydatna"."

Jeśli chcesz wprowadzić do swojej firmy optimized AI (AI offline), jest ważne aby wiedzieć:

  • Sztuczną inteligencję offline można zoptymalizować. Zapewnia lepsze wyniki niż ChatGPT w wielu przypadkach użycia. Dzieje się tak również dlatego, że Twój system działa tylko dla Ciebie i nie musi działać dla milionów innych użytkowników.
  • Sztuczna inteligencja offline zapewnia pełną kontrolę nad danymi. Każdy inspektor ochrony danych jest zadowolony z posiadania sztucznej inteligencji offline.
  • Sztuczna inteligencja offline jest niedroga w obsłudze, albo poprzez zakup serwera sztucznej inteligencji, albo poprzez wynajęcie takiego serwera w niemieckim centrum danych od niemieckiego dostawcy.
  • Sztuczna inteligencja offline może pobierać dane z Internetu lub komunikować się z innymi systemami IT.

Jakie masz pytania lub spostrzeżenia?

About the author on dr-dsgvo.de
My name is Klaus Meffert. I have a doctorate in computer science and have been working professionally and practically with information technology for over 30 years. I also work as an expert in IT & data protection. I achieve my results by looking at technology and law. This seems absolutely essential to me when it comes to digital data protection. My company, IT Logic GmbH, also offers consulting and development of optimized and secure AI solutions.

Mythen und Irrtümer über Künstliche Intelligenz