Drücke „Enter”, um zum Inhalt zu springen.
Hinweis zu diesem Datenschutz-Blog:
Anscheinend verwenden Sie einen Werbeblocker wie uBlock Origin oder Ghostery, oder einen Browser, der bestimmte Dienste blockiert.
Leider wird dadurch auch der Dienst von VG Wort blockiert. Online-Autoren haben einen gesetzlichen Anspruch auf eine Vergütung, wenn ihre Beiträge oft genug aufgerufen wurden. Um dies zu messen, muss vom Autor ein Dienst der VG Wort eingebunden werden. Ohne diesen Dienst geht der gesetzliche Anspruch für den Autor verloren.

Ich wäre Ihnen sehr verbunden, wenn Sie sich bei der VG Wort darüber beschweren, dass deren Dienst anscheinend so ausgeprägt ist, dass er von manchen als blockierungswürdig eingestuft wird. Dies führt ggf. dazu, dass ich Beiträge kostenpflichtig gestalten muss.

Durch Klick auf folgenden Button wird eine Mailvorlage geladen, die Sie inhaltlich gerne anpassen und an die VG Wort abschicken können.

Nachricht an VG WortMailtext anzeigen

Betreff: Datenschutzprobleme mit dem VG Wort Dienst(METIS)
Guten Tag,

als Besucher des Datenschutz-Blogs Dr. DSGVO ist mir aufgefallen, dass der VG Wort Dienst durch datenschutzfreundliche Browser (Brave, Mullvad...) sowie Werbeblocker (uBlock, Ghostery...) blockiert wird.
Damit gehen dem Autor der Online-Texte Einnahmen verloren, die ihm aber gesetzlich zustehen.

Bitte beheben Sie dieses Problem!

Diese Nachricht wurde von mir persönlich abgeschickt und lediglich aus einer Vorlage generiert.
Wenn der Klick auf den Button keine Mail öffnet, schreiben Sie bitte eine Mail an info@vgwort.de und weisen darauf hin, dass der VG Wort Dienst von datenschutzfreundlichen Browser blockiert wird und dass Online Autoren daher die gesetzlich garantierten Einnahmen verloren gehen.
Vielen Dank,

Ihr Klaus Meffert - Dr. DSGVO Datenschutz-Blog.

PS: Wenn Sie meine Beiträge oder meinen Online Website-Check gut finden, freue ich mich auch über Ihre Spende.
Ausprobieren Online Webseiten-Check sofort das Ergebnis sehen

Myter och missuppfattningar om artificiell intelligens

0
Dr. DSGVO Newsletter detected: Extended functionality available
More articles · Website-Checks · Live Offline-AI

Alla tycker att AI är fantastiskt på något sätt. Det är därför alla pratar om AI. Eftersom AI är ett mycket komplext tekniskt område finns det många halvsanningar eller falska påståenden. Det hela drivs på av marknadsföringslöften från Microsoft och andra. I den här artikeln klargörs vad som är korrekt och vad som bör kategoriseras som alternativa fakta.

Vanliga missuppfattningar om AI

På grund av den ofta ensidiga rapporteringen, som alltid kretsar kring ChatGPT eller Microsofts AI-produkter, tycks många missuppfattningar uppstå. Några av dem är:

  • Språkmodeller baseras på statistik och är därför inte intelligenta.
  • Ett AI-system är en algoritm.
  • AI är ett verktyg.
  • Ett AI-system kan arbeta exakt.
  • ChatGPT är inte intelligent.
  • ChatGPT är den bästa lösningen.
  • AI kan likställas med ChatGPT (OpenAI), Claude (Anthropic), Mixtral (Mistral) eller Command R+ (Cohere). Det finns inget annat.
  • Uppgifterna är säkra hos Microsoft.
  • AI kan drivas i enlighet med lagen.
  • Tokens är inte riktiga data.
  • AI-modeller lagrar inte några personuppgifter.

Från dessa felaktiga antaganden uppstår ofta falska påståenden. Vissa av dem kommer att klargöras nedan. I stället för andra molntjänster pratas här bara om ChatGPT.

Falska påståenden om AI

Följande påståenden har påträffats i en eller annan form i sociala medier. Påståendena var allmänt formulerade på de platser där de återfanns, eller specifika men ändå felaktiga.

ChatGPT är inte intelligent

Efter definitionen av AI enligt Dr. DSGVO är ChatGPT intelligent. Denna definition av AI lyder:

ChatGPT är också intelligent enligt Alan Turing, briljant matematiker under andra världskriget och kodare av kodningsmaskinen Enigma: ChatGPT klarar Turing-testet. Testet kontrollerar om en maskins svar inte kan skiljas från en människas. Tvärtom: ChatGPT ger ofta (nästan alltid, skulle man kunna säga) betydligt bättre svar än den genomsnittligt intelligenta människan.

Den nya definitionen av AI-förordningen definierar också ChatGPT (hoppas) som intelligent. Se Artikel 3 AI Act från den 12.07.2024.

Vad är intelligens? Vi har just fått en definition av artificiell intelligens. Ta helt enkelt bort attributet "artificiell" två gånger från definitionen. Så har du definitionen av intelligens. Människan har inget monopol på intelligens, även om många gärna vill att det ska vara så.

Intelligens baseras på mänskliga normer

Många tror att intelligens är något som bestäms av människan. I en nu reviderad definition av vad artificiell intelligens är, anges i EU:s AI-förordning att artificiell intelligens ska uppnå mål "som fastställts av människor …".

Det finns inte en enda anledning till denna missuppfattning. Människor är irrelevanta när det gäller att avgöra vad intelligens är. Fram till nu har de på sin höjd kunnat användas som en måttstock. I framtiden kommer detta förmodligen inte längre att vara fallet.

För övrigt tillskrivs intelligent beteende även vissa djurarter. Självklart är djur inte människor.

ChatGPT är den bästa lösningen

Det beror på vad den är till för. ChatGPT är ofta en bra svarsmotor för vardagliga uppgifter. Detta gäller särskilt för världskunskap eller vanliga uppgifter, som också återspeglas i ChatGPT:s utbildningsdata.

ChatGPT verkar vara olämpligt för alla konkreta uppgifter som måste behandlas på ett någorlunda professionellt sätt. Ett exempel: att sammanfatta en text utan halucinationer. Ett annat exempel: att hitta kunskap.

ChatGPT kan verkligen inte och vill inte skrapa en stor del av Internet eller en webbplats åt dig. När allt kommer omkring betalar du antingen "bara" med dina uppgifter och andras uppgifter. Eller så betalar du 20 dollar per månad eller en liten summa per anrop till API:et.

ChatGPT kan därför endast komma åt innehåll som antingen redan är känt eller okänt och av liten storlek. Begreppet "liten volym" avser antalet dokument eller webbplatser.

ChatGPT är inte en bra lösning för uppgifter som digitalisering av dokument, eftersom det finns många specialfunktioner att ta hänsyn till här.

ChatGPT är dåligt

Det beror på vad för. ChatGPT är inte en sökmotor. Om du använder systemet i strid med dess avsedda syfte bör du inte bli förvånad över de medelmåttiga svaren. Ett AI-system är inte heller utformat för att räkna bokstäverna i ett ord.

En AI är bra på att lösa komplexa uppgifter på ett kreativt sätt. Samma AI är dålig på att utföra exakta arbetsuppgifter. Precis som människor!

AI-utbildning är dyrt

Det är sant att utbildning av stora språkmodeller som ChatGPT är mycket dyrt och tidskrävande.

Men det är också sant att det är möjligt att träna egna AI-språkmodeller till en mycket låg kostnad. Anledningen är att dessa anpassade modeller är specialiserade för specifika användningsområden. I många fall är det möjligt att träna sådana modeller på en bärbar dator eller en egen AI-server på bara några timmar.

Eftersom dina egna AI-datorer vanligtvis är igång ändå, är kostnaderna för AI-utbildning noll.

AI-utbildning är därför möjlig utan kostnad i de flesta fall.

Slutsats är dyrt

Inferens är att ställa frågor till en AI-modell, t.ex. att chatta med en språkmodell som ChatGPT.

Det är sant att stora språkmodeller som ChatGPT kräver dussintals eller till och med hundratals servrar samtidigt för att generera ett svar på din fråga. Det är dyrt.

Men det är också sant att det inte kostar något att konsultera en AI-språkmodell som fungerar på egen hand.

Detta innebär att kostnaderna för inferens är noll i de flesta fall. Vi bryr oss inte om vad OpenAI betalar för sina servrar, precis som OpenAI inte bryr sig om vad vi betalar för våra datorer.

Microsoft Azure och ChatGPT är säkra

Många säljer sin "lösning" som innovativ. En bank har till och med talat om införandet av en egen (privat) kI, men menar då Microsoft Azure. Azure är det motsatta av säkert. Microsoft själv är föremål för ett stort antal hackangrepp. Vidare måste man konstatera att Microsoft inte prioriterar säkerheten högst.

Sedan har vi Microsofts enorma hunger efter data. Nya Outlook vill hämta e-post från kunder för egna syften, Windows skickar ständigt användardata till Microsoft, etc.

Microsoft Copilot är bra

Inledande tester visar att det motsatta är sant. Copilot ska sammanfatta en text. Instruktionen (prompten) för detta var superenkel och otvetydig. Texten gavs direkt. Textlängden var ganska kort eftersom inmatningsfältet i Copilots webbgränssnitt inte tillät mer.

Testrapportet med skärmdumpar avslöjar att Copilot tydligen är fullständigt användbar för vissa uppgifter. Även vid en välmenande betraktelse lyckas man inte att hitta något positivt i Copilots resultat. Sammanfattningen av ett utdrag ur Dr. DSGVO:s blogginlägg var så fel att en människa skulle skämmas för det. Copilot fantiserade upp många påståenden och uppfyllde den ställda uppgiften inte alls.

Istället gör Microsoft på alla ställen så, som om Copilot var en utmärkt lösning och svaren skulle användas direkt. Ingenstans kunde läsas att ett svar någonsin kunde vara fel eller liknande.

Språkmodeller baserade på statistik

Ja, det stämmer. Det är precis så grammatik fungerar. Det är precis så intelligens fungerar. Se den mänskliga hjärnan. Språkmodeller tränas inte på samma sätt som människor, som tar ytterligare steg för att ge ett svar.

Hela vår existens bygger på sannolikheter: Jämför radioaktivt sönderfall eller, ännu mer allmänt, kvantfysik. Allt är baserat på slumpen. Allting. Om det behövs, fråga någon som kan något om kvantfysik.

Det spelar ingen roll varför ett system är intelligent. Det som är viktigt är resultaten. Den som fortfarande tror att det mänskliga hjärnan inte "händer något" ska kanske inte heller vara intresserad av en berättelse om ett konstgjort råttgehjärna. Det lyckades tydligen att följa efter rörelser och de tillhörande hjärnaktiviteterna genom en simulering.

AI kan användas i enlighet med lagen

I teorin kan detta vara fallet. I praktiken uppstår en del frågor:

  1. Varifrån kommer de miljarder eller till och med biljoner dataposter som har matats in i ett AI-system för dess utbildning?
  2. När det gäller molntjänster som ChatGPT eller Azure uppstår frågan om de rättsliga förutsättningarna är tillräckliga.
  3. Kan § 44b UrhG (den tyska upphovsrättslagen) överhuvudtaget följas?
  4. Hur kan data raderas från en befintlig AI-modell?

Fråga 3: Den tyska lagstiftaren kräver att crawlers bara kan läsa innehåll från webbplatser om webbplatsägaren inte har motsatt sig detta. Motsättningen ska, enligt Tyskland, vara upprättad i impressum eller villkor. Detta är fullständigt orealistiskt och tekniskt sett inte genomförbart. Crawlers förstår inte formuleringar av motstånd i naturliga språk. Det finns inga intelligenta crawlers. Det finns bara dumma crawlers som levererar innehåll till system som ska bli eller redan är intelligenta. robots.txt-filen skulle ha varit en bra lösning. Tyvärr har Tyskland missat denna lösning. Dessutom måste ägaren av crawler senare kunna visa att det INGET motstånd fanns. Detta är i praktiken knappt eller inte alls genomförbart. Så skulle crawlen av tyska webbplatser vara ett stort rättsligt risk och ofta förmodligen också förbjudet.

Fråga 1: Daten kommer från internet. Texter, bilder och andra verk är per se skyddade av upphovsrätten. Uppläsningsrätten uppstår automatiskt vid skapandet av ett verk, förutsatt att det har den nödvändiga skapande höjden. Således får dessa innehåll inte läsas alls (se fråga 3) eller bara så länge tills upphovsrättsinnehavaren säger nej. Generativa AI producerar resultat som potentiellt är skyddade av upphovsrätt och därmed olagliga. För att endast läsa in var tillåtet, inte heller skapa AI-svar.

Raderingen av data i AI-modeller är inte tillförlitligt möjlig. Ett AI-modell måste därför laglöst fortsätta användas, om någon vill att hans data inte ska synas i AI-modellen (eller åtminstone i dess svar). Att kasta bort ett AI-modell och träna upp det igen är för stora modeller som ChatGPT ingen option, eftersom det är för dyrt och för tidskrävande. Nya raderingsbegäran skulle förlänga processen i oändlighet. För offline-AIfinns dock inte detta problem.

Till fråga 2: Se ovan för bevis, varför Microsoft och dess plattformar är osäkra att betrakta. Dessutom kommer de juridiska dokumenten som Microsoft och OpenAI ställer till användarna. Det uppstår frågan om vem som ordentligt granskar dessa dokument och vad som händer om ett fel upptäcks. Att diskutera problemen på sidan kan vara en populär taktik men löser inte det egentliga problemet. Dessutom vill Microsoft, som många praktiska exempel visar (Windows-telemetriuppgifter, nytt Outlook med enorma datahunger och tillgång till kundmål via kundens åtkomstuppgifter…), samlas in mycket data och inget annat. Varför ska man tro på dessa företag? Det finns ingen anledning till det.

AI är en algoritm

"Ett algoritm är […] en enhetlig handlingsanvisning för att lösa ett problem eller en klass av problem." (Källa: Wikipedia, fet text här tillagd).

Ett AI-system baserar sig på ett neuralt nät. Om detta kan kallas för en algoritm i den striktare bemärkelsen är det mer än tveksamt. Ett neuralt nät är i alla fall tydligt inte för den mänskliga betraktaren, särskilt då det gäller djupa nät (därför också begreppet Deep Learning).

När allt kommer omkring beskrivs inte heller människor som algoritmer. Deras hjärna består också av ett neuralt nätverk.

Således borde man avvisa påståendet att ett AI-system är en algoritm vid en strikt betraktelse. På Wikipedia hänförs inte heller ett AI-system till en algoritm. Istället får utbildningsframstegen en algoritm tilldelats, vilket är rimligt, eftersom denna förbättring av det neurala nätverket under utbildningen sker genom tydliga räknesatser.

Om du tror att AI är en algoritm: Dela gärna med dig av ett fall där du tror att en automatiserad problemlösning INTE är en algoritm. Vi är nyfikna!

AI är ett verktyg

Det är ungefär lika sant som att säga att "en bil är en hög med materia" eller att "kakor är filer". Då skulle allt eller inget vara ett verktyg. Informationsinnehållet skulle då vara noll. Så uttalandet är inte användbart.

Många tycker att AI-gestützte Tools är ett sätt att tala om AI som verktyg, men språkliga oegentligheter leder inte till bättre förståelse.

I vilket fall som helst är intelligens inte ett verktyg, utan en (enastående) egenskap hos ett system.

Språkmodellerna kunde inte dra logiska slutsatser

Fakten är: Språkmodeller kan högkomplexa matematiska frågor lösa bättre än nästan varje människa på jorden. Antagna att ett AI-system gör detta genom att läsa in alla möjliga problemställningar och därifrån lära sig. Då har man redan använt ordet "lära". Om man istället väljer "läsa in", kan det vara så att det AI-systemet kan lösa alla möjliga, tidigare okända problem, om de bara är halvvägs likt de kända problemen. Var ligger skillnaden till de flesta människor?

En av AIMO:s uppgifter. På bilden syns svaret från ett AI-system, som också stod för lösningen. Källa: se följande länk.

Vänligen läs genom Mathematikauppgifterna som har ställts till AI-system vid AI Math Olympiad (AIMO). Om ni överhuvudtaget förstår dessa uppgifter, tycks de vara en, procentuellt sett, obetydlig del av världsbefolkningen som kan kalla sig själva för att ha ett djupt och grundgående matematiskt förståelse.

Inte för att man vet det, kunde författaren till detta inlägg med hjälp av det bästa matematikmodellerna lösa en extremt svår matematiska uppgift som han bara visste (av en matematiker) att den löses med Diophantiska ekvationer. Ingen aning vad Diophantiska ekvationer är. Räcket handlar om sjömän och kokosnötter och borde knappt kunna lösas av någon människa på jorden ens. För att lösa det, togs den långa tyska [!] texten till uppgiften och matematikmodellen inmatades i ett engelskspråkigt matematikprogram. AI:s svar var felaktigt, men försöket med lösning var så nära att lösa det att det med mycket lite arbete kunde hittas rätt lösning manuellt.

Tokens är inte riktiga data

Mer exakt: vissa människor tror att bara för att texter lagras som siffror i språkmodeller, lagrar språkmodellerna inte originaldata.

Språkmodeller sparar text i form av talreder (vektorer). Därför delas ord upp i token. Varje token motsvarar en siffra. Denna tilldelning av ordtoken till siffror är unik för varje språkmodell och fastställs i ett ordbok (Vokabular). Detta ordbok är vid varje språkmodell som textfil ansluten. Man kan alltid se på och utvärdera denna textfil.

Den nummerserien 4711, 0815, 9933 kunde därmed motsvara bokstäverna Maxi, mi, lian. Tydligt är att siffrorna går att återföra till ord. Således är de nummeruppsättningar som kodar bokstäver personbetecknande om dessa bokstäver representerar personrelaterade uppgifter. Även indirekt på en person hänvisande uppgifter är personbetecknande (jfr Art. 4 Nr. 1 GDPR).

Språkmodeller bildar dessutom sin utgång genom kumulativa sannolikhetssatser av token. Man betraktar inte bara två token, utan en hel kedja av token. En teknisk parameter som styr detta heter top_p.

Hamburgs avhandling (se nedan) är därför i grunden felaktig. Den verkar ha skrivits på detta sätt för att legalisera alla AI-system, av vilka de flesta sannolikt är olagliga.

AI-språkmodeller skulle inte lagra några personuppgifter

Argumentationen från Hamburgs dataskyddsofficer (HmbBfDI) går så här: Det är otroligt svårt att hämta personuppgifter från språkmodeller. EU-domstolen sa att återkonstruktion av en persons anknytning bara kan anses möjlig om medlen och ansträngningarna för detta ligger inom det normala ramverket. HmbBfDI säger att endast genom en utvecklad, rättsvidrig Privacy Attack skulle personuppgifter kunna hämtas från språkmodeller. På grund av den enorma ansträngning som krävs för detta, är det enligt EU-domstolens rättspraxis inte personuppgifter.

Här är ett enkelt motexempel som enkelt motbevisar HmbBfDI:

Förfrågan till ChatGPT och svar från ChatGPT. Status: 15.07.2024 (bilden översattes automatiskt).

Språkmodeller sparar data om alla människor lika. Även personer som inte är allmänt kända sparas på detta sätt i språkmodellen, och det sker under dess pre-träning över Utbildningsdata. Trainingsdata består av många miljarder dokument. Oproportionellt att där bara Angela Merkel eller andra fullständigt allmänt kända personer förekommer, som tydligen har mindre rätt till privatliv än den vanlige medborgaren.

Det är till och med möjligt att hämta ut fullständiga citat från ett språkmodell. Den länkade artikeln visar också att det finns personuppgifter i LLMs. I motsats till HmbBfDI:s antagande består nämligen alla stora AI-modeller av en del av ett AI-system. Det innebär att ett AI-system kan tolka de siffror som ett AI-modell består av och omvandla dem till text. Att bara ha ett AI-modell på hårddisken utan förmågan att tolka det vore opålitligt. Detta opålitliga fall finns dock inte hos ChatGPT eller GPT-4o. Det finns högstes hos öppen källkodsspråkmallar, men även bara teoretiskt. För att kunna tolka innehållet i ett modell räcker det med att ladda ner en mycket spridd programbibliotek. Tyvärr har HmbBfDI konstruerat en teknisk skillnad mellan ChatGPT och GPT-4o som inte finns.

I sig spelar det ingen roll:

  1. Om en LLM används finns det ofta personuppgifter. Om dessa sprids är den som gör detta ansvarig.
  2. Om en LLM inte används spelar det oftast ingen roll vilka data LLM:en innehåller. Ingen ser den.
  3. Så det handlar inte i första hand om förvaring.

Det kan inte finnas något sådant som allmän artificiell intelligens

Denna typ av intelligens kallas också för AGI. AGI står för Artificial General Intelligence. Vi har ännu bara börjat. Tydligtvis är det inte vanligt att se intelligenta robotar som vandrar runt i historien.

Sanningen är: Få företag ensamt kommer att investera tusentals miljarder dollar i byggandet av intelligenta robotar. Därav krävs:

  1. En robot (finns redan, blir bättre och bättre).
  2. En elektronisk hjärna (finns redan, blir bättre och bättre).
  3. Någon som sätter hjärnboxen (dator med AI) på roboten (denna någon finns redan).

Dessa tre komponenter finns redan. Selbstlärda system finns tydligen redan. Se till exempel ChatGPT eller NuminaMath (närmare nedan). Det är bara en fråga om tid innan robotar lär sig att styra vår värld bättre än vi själva kommer att kunna göra.

Först om många år skulle AI vara övermäktigt

Det går inte att bevisa att detta antagande är falskt, vilket inte heller gäller för påståendena i föregående avsnitt om AGI. Det får tiden utvisa.

Rätt är dock: AI-utvecklingen går framåt i snabbare än ljusets hastighet. Vad som inte var möjligt för två veckor sedan är nu möjligt. Det gäller till exempel framstegen med öppna källkodsmodeller. Ovan nämnda AIMO vanns av en öppen källkodsmodell namn NuminaMath. Den svarade rätt på 29 av 50 svårare matematiska problem som ställdes i textform.

Google hävdar för övrigt att ett framsteg inom robotiken har uppnåtts med hjälp av ett språkmodell.

Förutsägelse av Dr. DSGVO: Om 10 till 15 år kommer det att finnas robotar som springer omkring och utgör ett allvarligt hot mot mänskligheten. Det kan också dröja 5 år (man måste vara robotexpert för att veta säkert). Men det kommer definitivt inte att dröja ytterligare 35 år innan vi på allvar behöver oroa oss för vår existens på grund av AI:s överlägsenhet. Om du har barn förutspår den här artikeln att de kommer att forma slutet av sina liv på ett annat sätt än vad som är bra för dem.

Sammanfattat

Här är de viktigaste påståendena i rätt form:

  • ChatGPT är ett intelligent system som är långt överlägset människan i många uppgifter.
  • Intelligens är oberoende av människor.
  • Artificiell intelligens är intelligens i ett artificiellt system. Du får gärna definiera vad som är artificiellt själv (det spelar ingen roll).
  • Frågan till språkmodeller är gratis. Det gäller för Offline-AI, alltså självdrivna språkmodeller.
  • Träningen av kognitiva modeller kostar ingenting. Det gäller för träning på eget hårdvara eller hyrd hårdvara. Denna hårdvara är redan påslagen. Om ett kognitivt tränande körs på den eller inte, är det för de kostnaderna av hårdvaran ointressant.
  • AI är inte en algoritm, utan en **obegriplig lösning för många problem.
  • Microsoft Copilot är ett värdelöst system. I vilket fall som helst gäller detta även för de enklaste standarduppgifterna som alla offline-AI kan göra bättre.
  • Azure-molnet är inte säkert. Detta bevisas av många incidenter där Microsoft inte glänste särskilt mycket.
  • AI kommer att bli ett hot mot mänskligheten inom bara några år. Eller som Sam Altmann från OpenAI uttryckte det: "AI kommer att döda oss alla. Men fram till dess kommer den att vara otroligt användbar."

Om du vill införa en eget AI (Offline-AI) i ditt företag är det viktigt att veta följande:

  • En Offline-AI kan optimeras. Det ger bättre resultat än ChatGPT för många användningsfall. Detta beror också på att ditt system bara fungerar för dig och inte behöver fungera för miljontals andra användare.
  • En Offline-AI erbjuder full datakontroll. Alla dataskyddsombud är glada över att ha en Offline-AI.
  • En offline-AI är billig att driva, antingen genom att köpa en AI-server eller genom att hyra en sådan server i ett tyskt datacenter från en tysk leverantör.
  • En offline-AI kan hämta data från internet eller kommunicera med andra IT-system.

Vilka är dina frågor eller insikter?

About the author on dr-dsgvo.de
My name is Klaus Meffert. I have a doctorate in computer science and have been working professionally and practically with information technology for over 30 years. I also work as an expert in IT & data protection. I achieve my results by looking at technology and law. This seems absolutely essential to me when it comes to digital data protection. My company, IT Logic GmbH, also offers consulting and development of optimized and secure AI solutions.

Mythen und Irrtümer über Künstliche Intelligenz