Drücke „Enter”, um zum Inhalt zu springen.
Hinweis zu diesem Datenschutz-Blog:
Anscheinend verwenden Sie einen Werbeblocker wie uBlock Origin oder Ghostery, oder einen Browser, der bestimmte Dienste blockiert.
Leider wird dadurch auch der Dienst von VG Wort blockiert. Online-Autoren haben einen gesetzlichen Anspruch auf eine Vergütung, wenn ihre Beiträge oft genug aufgerufen wurden. Um dies zu messen, muss vom Autor ein Dienst der VG Wort eingebunden werden. Ohne diesen Dienst geht der gesetzliche Anspruch für den Autor verloren.

Ich wäre Ihnen sehr verbunden, wenn Sie sich bei der VG Wort darüber beschweren, dass deren Dienst anscheinend so ausgeprägt ist, dass er von manchen als blockierungswürdig eingestuft wird. Dies führt ggf. dazu, dass ich Beiträge kostenpflichtig gestalten muss.

Durch Klick auf folgenden Button wird eine Mailvorlage geladen, die Sie inhaltlich gerne anpassen und an die VG Wort abschicken können.

Nachricht an VG WortMailtext anzeigen

Betreff: Datenschutzprobleme mit dem VG Wort Dienst(METIS)
Guten Tag,

als Besucher des Datenschutz-Blogs Dr. DSGVO ist mir aufgefallen, dass der VG Wort Dienst durch datenschutzfreundliche Browser (Brave, Mullvad...) sowie Werbeblocker (uBlock, Ghostery...) blockiert wird.
Damit gehen dem Autor der Online-Texte Einnahmen verloren, die ihm aber gesetzlich zustehen.

Bitte beheben Sie dieses Problem!

Diese Nachricht wurde von mir persönlich abgeschickt und lediglich aus einer Vorlage generiert.
Wenn der Klick auf den Button keine Mail öffnet, schreiben Sie bitte eine Mail an info@vgwort.de und weisen darauf hin, dass der VG Wort Dienst von datenschutzfreundlichen Browser blockiert wird und dass Online Autoren daher die gesetzlich garantierten Einnahmen verloren gehen.
Vielen Dank,

Ihr Klaus Meffert - Dr. DSGVO Datenschutz-Blog.

PS: Wenn Sie meine Beiträge oder meinen Online Website-Check gut finden, freue ich mich auch über Ihre Spende.
Ausprobieren Online Webseiten-Check sofort das Ergebnis sehen

Regulacja AI w UE: Wielki sukces czy błąd początkowy?

0
Dr. DSGVO Newsletter detected: Extended functionality available
More articles · Website-Checks · Live Offline-AI

AI opiera się na dużych danych masowych. Unia Europejska chroni szczególnie dane osób lub autorów. Jest to wcale dobre, ale szkodzi przy rozwoju skutecznych systemów AI. Dodatkowe przyczyny sprzeciwiają się skutecznym modelom językowym produkowanym w Niemczech. Czy można rozwiązać ten paradoks?

Wprowadzenie

Najczęstsze zastosowania AI to prawdopodobnie modele językowe (LLMs) i modeli obrazu. Możliwe, że wkrótce dołączą generatory wideo lub rozpoznawanie obiektów. Artykuł ten skupia się na LLMs z powodu prostoty. Odkrycia te są w dużej mierze lub w całości przenośne na wiele innych typów modeli, takich jak klasyfikatory czy systemy oceny medycznej.

Obecnie wszystkie wypadałe sprzeczne modeli pochodzą z krajów, które znajdują się poza UE. Mistral może być małą wyjątkiem, chociaż ich modele językowe nie są zbyt dobre.

Aleph Alpha nie jest wyjątkiem, bowiem nowe model Pharia-1 w benchmarkach średnio się sprawdza, by powiedzieć to delikatnie.

Niektórzy uważają, że UE może jeszcze nadążyć. Nie stanie się tak. Ponieważ dla wydajnych modeli językowych potrzebna jest tylko jedna rzecz: dane. Nic więcej. Brak personelu, technologii, pieniędzy, czasu. Nic poza bardzo wieloma, najlepiej reprezentatywnymi danymi. Oczywiście dane powinny być zgodne z prawem. W związku z tym dostępnych jest jeszcze mniej danych.

Dla bardzo dobrych modeli językowych brakuje w Europie jednej kluczowej składowej:

Dane.

Wszystko inne jest zawsze dostępne: jedna osoba, jeden lub kilka serwerów, najlepszy kod programu do szkolenia AI.

Powody, dla których UE odstaje w dziedzinie sztucznej inteligencji, są w dosłownym znaczeniu nakazane.

Ustawy o ochronie danych osobowych

Ochrona danych osobowych jest niezwykle istotna. Wiele skandali, które miały miejsce głównie poza Europą, to dowód tego faktu. Oto kilka przykładów:

W Stanach Zjednoczonych odbyła się bardzo ważna wybór prezydenta zainspirowana tym, że dane użytkowników Google i Facebooka (Meta) zostały nielegalnie wykorzystane ("Cambridge Analytica").

Microsoft jest uznawany przez wyższe władze w USA za ryzyko dla bezpieczeństwa Stanów Zjednoczonych. Powodem jest brak odpowiedniej ochrony danych przy Microsoftie.

Meta nie jest lepsza niż Microsoft, ale raczej gorsza. Bo Microsoft zarabia przynajmniej pieniądze nie tylko z danych, ale również z produktów. Meta ma tylko dane użytkowników. Te dane są maksymalnie wykorzystywane handlowo. Ustawodawstwo dotyczące ochrony prywatności jak RODO jest w tym przypadku bardziej przeszkadzające. ([1]) ([2])

Przez Google można również opowiadać o czymś negatywnym. Czasem przestępcy mogą być ujęci, gdy amerykańskie służby bezpieczeństwa analizują korzystanie z produktów Google. Niepokoi to jednak niezbyt. Kto jako niewinny obywatel jest w złym miejscu i czasie, zostaje szybko uznany za przestępcę i może trafić do więzienia lub nawet stracić życie.

Przepis o ochronie danych (RODO) jako przekazywanie ma bardzo dobry początkowy pomysł. Została wydana, gdy AI nie była jeszcze tematem dyskusji. Jest ona w sobie bardzo sensowna. Ale dlaczego jest faktycznie nie stosowana? Niemieckie organy ochrony danych sankcjonują faktualnie tylko w homoeopatycznych dawkach.

Prawo ochrony danych (RODO) pozwala na wykorzystanie danych osobowych do szkolenia modeli AI jedynie w oparciu o prawo do informacji (porównaj Art. 6 Abst. 1 RODO). Zgoda jest wykluczona przy dużych zbiorach danych. Umowa będzie trudna prawnie przy dużych zbiorach danych.

Gorsze jeszcze: dla urzędów dostępna nie jest uprawniona interesowność jako podstawę prawną (jest w tym samym artykule 6 ust. 1 RODO, oznaczone literą f). Urzędy nie mogą zatem faktycznie trenować systemów AI. Jest to szczególnie smutne, ponieważ właśnie urzędy posiadają wiele cennych danych, które również mogłyby przynieść korzyści obywatelom.

Prawo ochrony danych (RODO) dotyczy "tylko" danych osobowych, w tym również pseudonimowych danych (Art. 4 Nr. 1 RODO). Nie dotyczy ono danych anonimowych.

Ale jeśli trochę to przesadzić, to anonimowych danych nie ma w istocie. Chodzi o to:

  1. Dane anonimowe to dane, dla których oryginalne dane nie są już dostępne (bardzo rzadki przypadek).
  2. Anonimowe dane nie są tak reprezentatywne jak dane oryginalne i tym samym mniej wartościowe dla szkolenia AI.
  3. Anonimizacja sama w sobie jest operacją przetwarzania danych. Władze faktycznie nie mogą jej wykonywać. Inni mogą to robić faktycznie tylko wtedy, gdy istnieje uzasadniony interes, co jest trudne do oceny.

Mówimy tu o praktyce. Co w teorii jest prawidłowe, nie interesuje żadne przedsiębiorstwo świata, które chce rozwiązać konkretne problemy. Dyskusje teoretyczne powodują brak związku z praktyką.

Faktycznie jednak masowe dane mogą pojedynczo wstępować do systemu AI z powodu ochrony danych osobowych, np. przy szkoleniu modelu AI.

Ta zasada dotyczy również danych publicznych w internecie. Poniższe przypadki są problematyczne:

  1. Ktoś pisze coś o innej osobie. Może to być stwierdzenie faktyczne, albo też pomówienie. Druga osoba nie chce, aby ta informacja była publiczna, a tym bardziej aby została zapisana w modelu językowego AI.
  2. Osoba sama publikuje informacje o sobie. AI zapisuje te informacje, ponieważ strona internetowa osoby jest odczytana przez crawler. Później osoba decyduje się cofnąć informacje i żąda ich usunięcia od operatora AI. Niestety, dane z modeli AI nie można usunąć. Spróbuj usunąć informację z własnego umysłu. Nie da się. Twoje mózg i mózg AI to oba sieci neuronowe. Nie ma tu różnicy. Wiarygodne czy nie. Ważne jest, że informacje z modeli AI nie można usunąć.

Powtórka: Z powodu ochrony danych osobowych nie wolno używać dużych zbiorów danych do szkolenia modeli AI w UE. Jest to przynajmniej w niektórych przypadkach bardziej niepożądany efekt uboczny zasadniczo bardzo sensownej RODO.

Prawa autorskie

Prawo autorskie w Niemczech pozwala na modyfikację AI przy użyciu utworów chronionych prawem autorskim, zgodnie z § 44b Ustawa o Prawie Autorskim. Te utwory mogą być nawet krótkotrwale przechowywane w celu modyfikacji AI.

Praca jest automatycznie chroniona prawem autorskim, jeśli została stworzona (przez człowieka). Nie chcesz być autorem, zostaniesz nim automatycznie. Jest to analogiczne do statusu świadka: Jeśli zobaczyłeś przestępstwo, jesteś świadkiem. Nie możesz wybrać, czy chcesz być świadkiem albo nie. Stajesz się świadkiem lub nie stajesz.

Niestety niemiecki ustawodawca miał złych doradców, gdy tworzył §44b UrhG. Bo w tym paragrafie jest wymieniona przestępna i bardzo odległa od praktyki możliwość sprzeciwu się autorom.

Własnościobiorcy mogą odmówić zgody na wykorzystanie ich utworów w systemach AI. Ten sprzeciw lub zastrzeżenie musi, zgodnie z niemieckim komentarzem do ustawy, być umieszczony albo w informacji o firmie (imprint), albo w warunkach korzystania z serwisu (AGB) strony internetowej (patrz Drucksache 19/27426, s. 89, 2. akapit). Ale jak?

robots.txt jest plikem, który jest uznawany za powszechnie przyjęty standard branżowy. Ten standard jest idealnie czytelny przez maszyny. Wydaje się, że nikt z doradców, którzy kierowali rządem federalnym, nie wiedział o tym. Również wydawało się, że nikt nie zna faktu, iż w warunkach dostarczenia usług (AGB) lub w sekcji kontaktowej (imprint) typowo dominuje niewiadomość maszynowa. Często jest tak: doradca chce być dalej doradcą; dlatego unika negatywnych uwag lub wyraża się celowo lub z powodu niskiej sprawności językowej w taki sposób, że nikt nie może go zrozumieć. Niemiecki standard jest przeciwieństwem standardu branżowego: On nie jest czytelny przez maszyny, nie jest standardem i nie jest powszechnie stosowany. Krótko mówiąc, niemiecki standard jest z praktyczego punktu widzenia nieprzydatny.

Jeszcze gorzej: jeśli chcesz odczytać zawartość strony internetowej i wykorzystać ją do szkolenia modelu AI, później musisz być w stanie udowodnić, że właściciel strony nie wyraził sprzeciwu, gdy odczytywałeś jej treść. Tak chce wprowadzić niemiecki ustawodawca.

Niestety nikt nie może prawidłowo (w takiej masie!) udowodnić, że w momencie X na stronach Y, Z oraz na dziesięciu miliardach stron A1 do A10000000 nie istniał jakikolwiek Urządzenie Prawne. Musiałby przeczytać całą stronę, aby znaleźć informacje o firmie i warunkach korzystania z serwisu. Co, jeśli jest dwa takie strony? Tak się zdarza. Niektórzy właściciele stron internetowych mogliby to nawet robić z złości, aby What skłonić do przekroczenia prawa.

Wnioski: Niemieckie prawo autorskie uniemożliwia prawomoczne pobieranie masowych danych z niemieckich stron internetowych.

Biurokracja i demokracja

Zamiast biurokracji powinno się mówić o biurocrazy (ten żart językowy działa lepiej w języku angielskim).

Demokracja jest dla wielu najmniejszym Złem spośród wszystkich Złów. Do tego można zgodzić się. Jednakże demokracja tym samym pozostaje Złem.

Przykład pokazuje to bardzo dobrze. Definicja technologie lub pojęcia technologicznego nie powinna być ustalana przez konsultacje 27 stron (z kilkoma osobami w każdej z nich). Tak właśnie się stało, gdy Komisja Europejska przygotowywała definicję "systemu AI" w ramach Aktu o Inteligencji Umysłowej. OECD ma jeszcze więcej członków. Autor tego artykułu miał kilka propozycji poprawek do definicji AI, które zostały przyjęte przez OECD. Jedna z głównych autorów definicji napisała potem (w skrócie): "Nie sposób przekonać więcej niż 30 delegacji krajowych, aby zaakceptowały jakiekolwiek dalsze poprawki!" I tak się skończyło z postępem.

Tylko przystosowanie do RODO nie jest możliwe. Trwało lat. W erze AI już tygodnie są małą wiecznością.

Definicja sztucznej inteligencji przez UE można nazwać jedynie niefortunną i błędną. Oznacza to, że ChatGPT, aktualnie najlepszy i wybitny chatbot, nie jest definiowany jako inteligentny. W rezultacie większość ludzi nie jest inteligentna, ponieważ ChatGPT w większości przypadków może udzielić lepszych odpowiedzi niż większość ludzi na tym planecie. Może ludzie w końcu nie są aż tak inteligentni?

Definicja UE, co stanowi system AI, brzmi:

System sztucznej inteligencji” (system AI) to system wspomagany komputerem, zaprojektowany tak, aby działać z różnym stopniem autonomii, i który może generować wyniki takie jak prognozy, rekomendacje lub decyzje, wpływające na fizyczne lub wirtualne środowisko, w celu osiągnięcia jawnych lub ukrytych celów;

Źródło: Ustawa o Inteligencji Künstycznej (zobacz zmianę 163)

Krytyka definicji AI w UE: ChatGPT nie jest autonomowym systemem. Stara, jeszcze dość głupia robotka do przetaczania pyłku jest natomiast autonomiczna. Nie może to być kryterium inteligencji. Wynik nie jest warunkiem inteligencji; przykład: Albert Einstein myśli 3 lata, ale w tym czasie nie produkuje wyniku? ChatGPT zazwyczaj nie wpływa na fizyczne ani wirtualne otoczenie, natomiast robotka do przetaczania pyłku już tak. Krytyka w szczegółach jest przedstawiona w osobnym artykule, który zawiera również proponowaną trwałą definicję AI.

Jaka jest rozwiązanie?

Najpierw należy stwierdzić, że istnieją następujące rodzaje modeli językowych AI:

  1. Bardzo wydajne modele językowe (LLM), które zawsze można by uznać za nielegalne. Nikt (ani automatyzacja!) nie może prawnie sprawdzić i przefiltrować ekstremalnych ilości danych.
  2. Półwegs wydajne modele języka (LLM), które stawiają na ochronę danych osobowych i praw autorskich. Niestety, również w tym przypadku trzeba po prawdopodobieństwie stwierdzić, że te modele opierają się na danych przetwarzanych niezgodnie z prawem.
  3. Niewydajnie mocne modele LLMs. Są one albo a) całkowicie zgodne z prawem, albo b) bardzo blisko zgodne z prawem, albo c) równie niezgodne z prawem. W pierwszym przypadku nie ma to znaczenia, ponieważ nikt nie chce korzystać z tych modeli. W drugim przypadku zmarnowano energię życiową. Trzeci przypadek odzwierciedla twórcę modelu LLM, który nie ma pojęcia o szkoleniu AI ani o przepisach prawnych

Krótko mówiąc, wszystkie modeli językowe są faktycznie niezgodne z prawem. Te, które nie są, nikt nie interesuje. Zazwyczaj tylko urzędy mogłyby chcieć używać mniej skutecznych modeli językowych, ponieważ w stracie widzą inny sposób (porównaj wyżej opisane argumenty oraz fakt, że urzędy są zregulowane, co często jest dobre).

Wstępne podsumowanie: Nie ma rozwiązania. AI jest nielegalna (i użyteczna).

Albo korzysta się z AI, wiedząc, że jest to zabronione, albo zakazuje się wszystkim korzystania z AI. Wszystkie pośrednie rozwiązania są desperackimi próbami, które z pewnością mogą być uzasadnione. Problem prawny prawdopodobnie zostanie rozwiązany poprzez akceptację, zgodnie z socjalnym myśleniem nauk prawnych: to, co jest zabronione, ale każdy robi, a co faktyczne jest tolerowane, zostanie albo dalej tolerowane, albo w końcu uznane za legalne. To ostatnie nie nastąpi tak szybko (patrz biurokracja i demokracja).

Mały epizod ilustrujący rozwój społeczeństwa: dawniej słowo "spontaniczność" było uważane za poprawne wyłącznie w tej właśnie formie. Rzadko kto je używał. Prawie każdy mówił tylko "spontanitet". W pewnym momencie "spontanitet" uznano za faktyczne poprawne. Online Duden nadal jednak nie ma tego na swoim ekranie i uważa, że "spontanitet" jest "rzadki" (co jest nieprawda).

Czym jest praktyczne rozwiązanie?

Brak rozwiązania, ale ulga, a dodatkowy, miły dla podatnika efekt uboczny to sankcje.

Kiedy wreszcie niemieckie organa ochrony danych osobowych wykonają swój obowiązek prawidłowo i karzą odpowiednio osoby naruszające przepisy dotyczące danych osobowych? Przykładem może być monitoring internetowy. Monitoring internetowy to np. korzystanie z Google Analytics, Facebooka Pixels lub innych usług analitycznych, które są zbyt intruzywnie. Zazwyczaj używa się do tego plików cookies. Ten przypadek naruszenia prawa występuje na stronach internetowych w Niemczech każdego dnia milion razy. Naruszenie to jest bardzo łatwe do wykazania (otwarcie przeglądarki, otwarcie konsoli sieciowej z klawiszem F12, wejście na stronę, spojrzenie). Dlaczego nie są wydawane kar za ten ciągły naruszenie prawa?

Praktyczne rozwiązanie brzmi: surowe i konsekwentne oraz szybkie sankcjonowanie dostawców AI takich jak Microsoft, OpenAI, Meta, Google, Apple w Europie. W zależności od przepisów prawa albo jest sankcjonowany bezpośrednio dostawca, albo są sankcjonowani użytkownicy tych rozwiązań. Nie ma co się obawiać, bo nadal będzie istniał ChatGPT. Bo po pierwszej sankcji wszystko będzie lepiej. Czy kiedykolwiek tak było z ChatGPT? Także Facebook nie wyginie (niestety), po tym jak fanpagey na Facebooku zostaną prawdopodobnie wstrzymane przez niemieckie organa ochrony danych (przepisy Trybunału Sprawiedliwości Unii Europejskiej pozwalają na to organom)

Wyjście z modeli AI

Inny podejście polega na rozważeniu wyjść z systemów AI. Aby tylko inspirować, warto wspomnieć o następującym: Osoba, która rozwija w swoim umyśle myśli i fantazje dowolnego rodzaju, ale nie materializuje ich, nie popełnia niczego złego i żyje w pełni zgodnie z prawem i prawem. Tak mogły być również oceniane systemy AI według ich wyjść. System AI bez wyjść jest faktycznie nieszkodliwy. Trzeba tylko zapewnić, że ten stan nie zostanie wykorzystany do celu, np. przez szeptane pytania lub też poprzez pytania samych siebie. Osoba ma bowiem tylko swoje własne mózgowe w dostępie plus sztuczne mózgi systemów AI, które nie mogą jeszcze bronić się przed użyciem przez trzecie osoby.

Podsumowanie

Sztuczna inteligencja może być bardzo przydatna. Dokładnie to jest problemem: korzystanie z czegoś, ponieważ jest przydatne, mimo że nie jest dozwolone, powoduje pewne dylemat.

Ochrona prywatności, np. przez RODO, jest wielkim osiągnięciem. Ta ochrona wyklucza w praktyce zastosowanie systemów AI na dużej skali. To dylemat nie zostanie rozwiązany w ciągu następnych lat.

Sztuczna inteligencja pokazuje niezdolność UE do szybkiego i skutecznego działania w dziedzinie technologii. Tylko mini-przykłady pokazują postęp. Na przykład, gdy włoska organ ochrony danych na krótko zakazała ChatGPT. To, że hesski Inspektor Ochrony Danych wysłał dość odważny katalog pytań do OpenAI, gdy każdy inny też tak zrobił, nie było pocieszeniem dla maksymalnej bierności Hesji, jeśli chodzi o prawa osób poszkodowanych.

AI jest niezgodna z prawem. Dla wielu ludzi i firm może być bardzo przydatna. Wydaje się sprzeczność, a także jest to sprzeczeństwo prawnie. W rzeczywistości życiowej od teorii prawa jest oddzielona. Przydatność w rozważaniach prawnych odgrywa rolę (przynajmniej) wtórną.

Sztuczna inteligencja zabije nas wszystkich. Ale zanim to nastąpi, zrobi dla nas wiele niesamowicie przydatnych rzeczy.

Według Sama Altmana.

Ważne jest, aby wydatki związane z systemami AI były używane z dużą ostrożnością. To niemożliwe jest w przypadku usług chmurowych takich jak ChatGPT. Zwłaszcza jeśli chatbota używa OpenAI.

Czyli albo AI jest uruchomiona samodzielnie (Offline-AI, serwer z kartami GPU lub klastra GPU). Wtedy można najlepiej monitorować oba wejścia do AI (prompty) oraz wyjścia. Także system AI może być zoptymalizowany i często dostarcza lepsze wyniki niż wszyscy tacy, którzy tylko na powszechne użycie trenowani byli.

Albo zostanie wykorzystany usługa chmurowa, która poprzez interfejs programistyczny (API) umożliwia zwiększenie bezpieczeństwa, a nie standardowa powierzchnia użytkownika. Wtedy można przynajmniej monitorować wejścia do AI trzeciej oraz jej wyjścia.

W każdym przypadku powinno być przepisywane niemieckie prawo autorskie. Ponadto, urzędy powinny mieć więcej możliwości korzystania z danych do szkolenia AI.

Najważniejsze i najbardziej skuteczne jest jednak surowa sankcjonowanie dostawców AI, którzy zwykle znajdują się poza UE. W związku z tym powinna zostać zmniejszona biurokracja, aby państwo prawa nie stawało się tylko teoretyczną praktyką. Co ważne jest to, co działa w praktyce. Papierem samym nie można było rozwiązać żadnego problemu. Zresztą amerykański rząd na mocy prezydenckiej decyzji ma głęboki dostęp do modeli AI firmy OpenAI i Anthropic.

Kluczowe wnioski tego artykułu

UE posiada znaczące przepisy dotyczące ochrony danych osobowych. Utrudniają one tworzenie wysokiej jakości modeli językowych sztucznej inteligencji, ponieważ ich szkolenie wymaga dużej ilości danych, których prawne zabezpieczenie nie jest możliwe.

Rozporządzenie o ochronie danych osobowych (RODO) zabrania wykorzystywania danych osobowych bez zgody lub uzasadnionego interesu do szkolenia systemów sztucznej inteligencji. Władze nie mogą zatem trenować takich systemów, ponieważ nie mają podstaw prawnych.

Polskie prawo autorskie utrudnia wykorzystanie danych z niemieckich stron internetowych do szkolenia systemów sztucznej inteligencji.

Definicja AI przez UE jest niefortunna i błędna, ponieważ nie uznaje ChatGPT za inteligentnego.

Modele AI są niemal zawsze niezgodne z prawem, ale szeroko rozpowszechnione. Praktycznym rozwiązaniem mogłoby być stanowcze i szybkie działanie w przypadku naruszeń, np. nałożenie grzywien na dostawców takich jak Microsoft, OpenAI czy Google w Europie.

Systemy AI mogą być bardzo przydatne, ale muszą być starannie nadzorowane, aby zapobiec nadużyciom.

Biurokracja musi zostać zredukowana, aby państwo prawa było realizowane w praktyce, a nie tylko pozostawało teorią.

Ogólne stwierdzenia związane z tymi informacjami
About the author on dr-dsgvo.de
My name is Klaus Meffert. I have a doctorate in computer science and have been working professionally and practically with information technology for over 30 years. I also work as an expert in IT & data protection. I achieve my results by looking at technology and law. This seems absolutely essential to me when it comes to digital data protection. My company, IT Logic GmbH, also offers consulting and development of optimized and secure AI solutions.

Analiza Google bez zgody prawidłowo używać: tak się robi