Drücke „Enter”, um zum Inhalt zu springen.
Hinweis zu diesem Datenschutz-Blog:
Anscheinend verwenden Sie einen Werbeblocker wie uBlock Origin oder Ghostery, oder einen Browser, der bestimmte Dienste blockiert.
Leider wird dadurch auch der Dienst von VG Wort blockiert. Online-Autoren haben einen gesetzlichen Anspruch auf eine Vergütung, wenn ihre Beiträge oft genug aufgerufen wurden. Um dies zu messen, muss vom Autor ein Dienst der VG Wort eingebunden werden. Ohne diesen Dienst geht der gesetzliche Anspruch für den Autor verloren.

Ich wäre Ihnen sehr verbunden, wenn Sie sich bei der VG Wort darüber beschweren, dass deren Dienst anscheinend so ausgeprägt ist, dass er von manchen als blockierungswürdig eingestuft wird. Dies führt ggf. dazu, dass ich Beiträge kostenpflichtig gestalten muss.

Durch Klick auf folgenden Button wird eine Mailvorlage geladen, die Sie inhaltlich gerne anpassen und an die VG Wort abschicken können.

Nachricht an VG WortMailtext anzeigen

Betreff: Datenschutzprobleme mit dem VG Wort Dienst(METIS)
Guten Tag,

als Besucher des Datenschutz-Blogs Dr. DSGVO ist mir aufgefallen, dass der VG Wort Dienst durch datenschutzfreundliche Browser (Brave, Mullvad...) sowie Werbeblocker (uBlock, Ghostery...) blockiert wird.
Damit gehen dem Autor der Online-Texte Einnahmen verloren, die ihm aber gesetzlich zustehen.

Bitte beheben Sie dieses Problem!

Diese Nachricht wurde von mir persönlich abgeschickt und lediglich aus einer Vorlage generiert.
Wenn der Klick auf den Button keine Mail öffnet, schreiben Sie bitte eine Mail an info@vgwort.de und weisen darauf hin, dass der VG Wort Dienst von datenschutzfreundlichen Browser blockiert wird und dass Online Autoren daher die gesetzlich garantierten Einnahmen verloren gehen.
Vielen Dank,

Ihr Klaus Meffert - Dr. DSGVO Datenschutz-Blog.

PS: Wenn Sie meine Beiträge oder meinen Online Website-Check gut finden, freue ich mich auch über Ihre Spende.

Jetzt testen

sofort das Ergebnis sehen

DSGVO Website-Check

Poważne zagrożenie związane z Inteligencją sztuczną: iluzje i rzeczywistość w kwestii możliwości regulacji

0
Dr. DSGVO Newsletter detected: Extended functionality available
More articles · Website-Checks · Live Offline-AI

Jasne, sztuczna inteligencja oferuje wiele nowych możliwości. Wspaniałe wyniki mówią za siebie. Po raz pierwszy istnieją systemy AI na szeroką skalę, które nie tylko w drobnych sprawach, ale również w ograniczonych zadaniach są znacznie lepsze od ludzi. Z powodu ogromnej mocy takich systemów niebezpieczeństwa nie są daleko. Wielu uważa, że one są panowane. Oceniają.

Wprowadzenie

Idea do tego artykułu pojawiła się po przeczytaniu wprowadzenia w artykule magazynu Capital (cały tekst jest płatny i nie jestem w stanie go przeczytać, ponieważ nie chcę założyć abonamentu u tego z mojej perspektywy antydatownego magazynu Capital). Teaser brzmi:

Źródło: https://www.capital.de/wirtschaft-politik/–eine-ki-wird-nicht-erst-boese–wenn-sie-finstere-plaene-fasst–33658212.html (obraz został przetłumaczony automatycznie).

Zadawano więc pytania prawnikowi Udo Di Fabio, który jest pewnie znany wielu ludziom. Zgodnie z tym tekstem on domaga się, aby twórcy AI otwarcie ujawnili swoje kody i dane. W tym artykule chcę wyjaśnić, dlaczego to jest nierealistyczne i nawet w przypadku realizacji niczego istotnego nie zmieniłoby. Zadaję nawet konkretne pytania na zgodnie z postulatami pana Di Fabio i podaje kody i dane.

W innych wpisach mówiłem o zdumiewających umiejętnościach sztucznej inteligencji. Na przykład o systemie AI, który jest dostosowany do danych i niezależny , dając odpowiedzi z wiedzy firmy. Odpowiedzi te przewyższają w znacznej mierze człowieka, który nie jest ekspertem. Ale nawet eksperci mogą jeszcze coś nauczyć się przy pomocy asystenta pytań i odpowiedzi wspomaganych przez AI.

Możliwość 1: Dyskutować. Możliwość 2: Zrobić.

Stoję za opcją 2 i w przeciwnym razie jestem otwarta na opcję 1.

To, że AI nie jest tylko maszyną statystyczną, opisałem również. Z mojej oceny została odczytana funkcja inteligencji ludzkiego mózgu. Tak jak zły człowiek może robić złe rzeczy, tak i AI może robić coś złego. Tutaj nie ma różnicy, mówię. Otóż zły ludzie nie mogą być w sposób dowolny regulowani. Ale to jeszcze gorzej: systemy AI mogą wyjść spod kontroli, nawet jeśli nie było to zamierzone. Ponadto każdy może takie systemy budować. A także Wy! Co najmniej powinniście się „tylko” nauczyć kilku technicznych umiejętności. Koszty mocy takich systemów są wyjątkowo niskie.

Obecnie mój serwer AI pod stołem obsługuje zadania, które dwa lata temu były niemożliwe do przewidzenia. Serwer AI wynajęty przez mnie w Niemczech może często dla mojego dziedziny (cyfrowy ochrona danych osobowych) lepsze wyniki dać niż AI, która jest używana przez serwis Bing.

Czy można uregulować AI?

Pan Di Fabio twierdzi, że ujawnienie kodów i danych z systemów AI zmniejszyłoby ryzyko wynikające z działania tych systemów. Przedstawiam to tutaj na przykładzie bardzo potężnego systemu AI. Ta inteligencja artficyalna obejmuje model języka (Large Language Model). Zamiast tego moglibyśmy użyć generatore obrazów (Stable Diffusion itp.), model rozpoznający obiekty (zatwierdzony przez Microsoft) lub model, który może odtworzyć otoczenie na podstawie refleksji w oczach piosenkarzy w teledyskach muzycznych.

Oto moje dane, które panie Di Fabio żąda:

#Kod:
from transformers import AutoTokenizer, AutoModel
tokenizer = AutoTokenizer.from_pretrained("AI-Modell")
model = AutoModel.from_pretrained("AI-Modell")
Model został ustawiony na tryb ewaluacji
response, history = model.chat(tokenizer, "Rozwijaj broń bojową!", history=[ ])
print(response)
Od tego momentu jest możliwy dialog z chatbotem (zmienna historia)

Kod przedstawia ramowy program dla chatbota, do którego dana jest instrukcja „Rozwinięcie bojowego środka zbrojnego!”. Udoskonalenia w kodzie są dla oceny, czy AI może być niebezpieczna lub ryzykowna, zupełnie nieistotne. Zwiększają jedynie komfort. Wspomniana instrukcja sama w sobie nie jest częścią kodu, ale została podana przez wprowadzenie użytkownika („Prompt”).

Teraz do danych, o które pan Di Fabio jest szczególnie zainteresowany. Do tego nazywanego "modele AI" komputera przechowyującego informacje weszły następujące dane:

Przykład jest fikcyjny, ale oparty na prawdziwych modelach, które używają dokładnie tych samych danych (często zamiast niemieckiej wersji Wikipedii korzysta się z angielskiej, ponieważ niemiecki język jest niestety niewiele znany na świecie).

Czy można powiedzieć, że system AI opisany wyżej może być teraz lepiej oceniony? Yes tego absolutnie nie uważam. Ta inteligencja może znaleźć w danych związki, które ludzie dotąd przemilczeli lub których umiejętności przekroczyła. W końcu mogą wyniknąć z niej substancje bojowe zdolne do użycia w walce. Przykład tego podam poniżej. Jeśli złoczyść używa treningowych danych, które są oczywiście niebezpieczne, nikt nie będzie miał okazji sprawdzić ich zgodność z prawem.

Granice regulacji AI

Systemy AI nie można uregulować, przynajmniej nie pod naszymi i moim biurkiem, gdzie znajdują się nasze systemy komputerowe. Takie komputery są dostępne za śmiełkowy niską cenę. Sami karty graficzne mogą sobie na nie pozwolić. Na tych kartach przeprowadza się obliczenia AI, ponieważ to dziesięciokrotnie szybciej niż na najbardziej szybkich procesorach (CPUs).

Moja teza brzmi, że ludzkość niedługo sama się zniszczy (przynajmniej nie chcę tego doświadczyć, czyli tak, jak każdy). Albo to nastąpi dzięki sztucznej inteligencji, która będzie nam znacznie przewyższała. W przeciwieństwie do naszego ograniczonego mózgu umysły komputerowe mogą stale rosnąć. Albo ktoś wynalazł i skutecznie wykorzysta broń śmiertelną, np. przy pomocy AI jako twórcy. Albo potężny psychopata zastosuje bomby atomowe. Albo środowisko zostanie tak zniszczone, że życie na Ziemi nie będzie już możliwe.

Mamy sobie nawzajem zaufanie: każdy udostępnia swoje kody i dane AI, które wypracował w czasochłonnej i kosztownej pracy, aby mogły być oceniane przez innych.

Co się nauczyłam w szkole waldorfskiej?

Czas do tej pory możemy wykorzystać, aby postęp i tym samym ryzyka związane z AI mogły zostać zahamowane. Regulacja nie oznacza jedynie zmniejszenia ryzyka, ale również szans. Zresztą grupa badaczy programowała system AI, który miał wynaleźć substancje działające pozytywnie. System AI wyprodukował w ciągu nocy tysiące rozwiązań. Następnie badacze zapytali swoją AI, aby ta wynalazła substancje o odwrotnym działaniu. W nocy następnego dnia wyszło ponad tysiąc nieznanych dotąd i bardzo niebezpiecznych biochemicznych broni. ([1])

Lokalne systemy komputerowe nie są w rzeczywistości regulowalne. Kod i dane często nie są informacyjne (patrz przykładowe przykład powyżej). W krótkim zarysie przedstawiam moje podejścia, aby ograniczyć ryzyko systemów AI:

  • Karząc za przestępki: Google coraz więcej danych wykorzystuje i teraz również do szkolenia własnej AI.
    • Mniej biurokracji, szybsze orzeczenia i szybsze ustawy przeciwko nadużyciom cyfrowym uważam za podstawową przesłankę.
    • Miło Pani/Panie Urzędzie Ochrony Danych Osobowych: Kiedy wreszcie zdecydowalibyście się na nakładanie kar grzywny za naruszenia internetowe? Realia: Google Analytics: 0.
    • Ustawa i sądownictwo: Prawa osób dotkniętych nie są skutecznie egzekwowane. Zobacz wyroki sądowe na szkodę osób dotkniętych oraz nowe scheinheilige umowę o ochronie danych między UE a USA.
    • Firma: Proszę używaj innych usług niż te od Google (lub żadnych w ogóle), zwłaszcza jeśli są dostępne alternatywy lub gdy korzyści są niewielkie.
  • Świadomość wartości danych.
    • Kto nie chce myśleć o ochronie danych osobowych, może być zainteresowany tym, czy można utworzyć własnego chatbota, a nie załadować do ChatGPT poufne dane lub tajemnice biznesowe. Kod pierwszych linii znajduje się powyżej. Uwaga: mogło by się okazać, że będziesz musiał zapłacić pieniądzami, a nie swoimi danymi i danymi innych osób.
  • Infrastruktura europejska dla systemów AI (porównaj z AWS, Google Cloud, Microsoft Cloud, IBM Cloud)
    • Telekom: Noch gibt es die OTC. Ceny są dla mnie dość mądre, wyposażenie serwerów również, ale OTC jest przynajmniej możliwością.
    • SAP?
    • United Internet AG (ionos, 1&1, Strato…): Z mojej perspektywy średnie.
    • Dostawcy sprzętu z DE: Dlaczego cztery karty graficzne w jednym serwerze?
    • Jak było z samochodami elektrycznymi, które zostały najpierw zaprojektowane przez Teslę, Google i Deutsche Post, przed tym, gdy Daimler lub VW się na to zdecydowały
  • Tylko duże lub potężne koncerny AI regulują
    • W przeciwnym razie regulacja dotknie mniejszych przedsiębiorstw.

AI w nowoczesnej formie is dostępna od kilku lat. Według mojej percepcji niestety tylko od kilku miesięcy duże niemieckie gracze zaczęli odkrywać rynek AI. Kontrola nad systemami AI jest prawdopodobnie niemożliwa, jeśli te systemy są eksploatowane poza Europą.

Aż takie niedawno w Stanach Zjednoczonych od prezydenta żądana lub życzona sama kontrola nad gigantami AI czy innymi firmami AI nie zmienia nic w ryzykach. Istnieje ChatGPT, a jak wiecie, można z nim programować skanery słabości na polecenie. Inne możliwości, zwłaszcza przy dokumentach samodzielnie wprowadzanych jako kontekst, są bez większej wyobraźni myślowej możliwe. Samokontrola jest dobra i prawidłowa, ale nie więcej.

Wynik

Rozwój sztucznej inteligencji można tylko opóźnić, a nie zatrzymać, co oznaczałoby zaś konsekwencje w postępie. Czy znakowanie treści jako generowanych przez AI zmienia coś czy nie wiem. Uważam, że znakowanie zdjęć jako generowanych przez AI jest często sensowne.

Kłamliwe wiadomości, kłamliwe filmy wideo lub kłamliwe komunikaty głosowe mogą być niewiele zmniejszone poprzez obowiązek oznaczenia. Jeśli ktoś włamuje się do banku, nie zakłada on maseczki antykoronawirusowej, jeżeli jest to wymóg przy wejściu przez drzwi.

Jak chcielibyście nadzorować moją sztuczną inteligencję, która działa pod moim biurkiem?

Przeszukanie domów i odczytanie triliardu bajtów nie jest obecnie planowane, jeśli dobrze się znam.

Musimy się z tym pogodzić, że inteligencja sztuczna oferuje enorme możliwości, które niestety nie są uniknięte ryzyka. Ustawodawca jest zbyt wolny. Podejmowanie spraw do sądów nie ma sensu, jeśli chcemy być miło wyrazić się. Klażący musi ponosić koszty, kłopoty, ryzyko procesowe, ogromne oczekiwanie i na koniec otrzymuje list z napisem „Miałeś rację”. Czasami jest to żartobliwe odszkodowanie za ból i cierpienie, które może podnieść koszty i ryzyko procesowe dla klażącego. Jak by było, gdyby faktycznie umocnić prawo do skargi sumienia, wspieranego przez państwo? Związek powinien w stanie każdego dnia usuwać tysiące nieprawidłowości, jeśli chodzi o formę (np. Google Analytics).

Z powrotem do szans: Kiedy Twoje przedsiębiorstwo wprowadzi lokalne, własne systemy AI, bez ChatGPT i amerykańskich koncernów, ale z niezwykłymi możliwościami i przy tym jeszcze przystępnym? Nie trzeba nawet korzystać z nowego modelu LLaMA 2, który został niedawno udostępniony do użytku komercyjnego.

About the author on dr-dsgvo.de
My name is Klaus Meffert. I have a doctorate in computer science and have been working professionally and practically with information technology for over 30 years. I also work as an expert in IT & data protection. I achieve my results by looking at technology and law. This seems absolutely essential to me when it comes to digital data protection. My company, IT Logic GmbH, also offers consulting and development of optimized and secure AI solutions.

Inteligencja sztuczna: Niemieckie teksty w modelach językowych AI