Drücke „Enter”, um zum Inhalt zu springen.
Hinweis zu diesem Datenschutz-Blog:
Anscheinend verwenden Sie einen Werbeblocker wie uBlock Origin oder Ghostery, oder einen Browser, der bestimmte Dienste blockiert.
Leider wird dadurch auch der Dienst von VG Wort blockiert. Online-Autoren haben einen gesetzlichen Anspruch auf eine Vergütung, wenn ihre Beiträge oft genug aufgerufen wurden. Um dies zu messen, muss vom Autor ein Dienst der VG Wort eingebunden werden. Ohne diesen Dienst geht der gesetzliche Anspruch für den Autor verloren.

Ich wäre Ihnen sehr verbunden, wenn Sie sich bei der VG Wort darüber beschweren, dass deren Dienst anscheinend so ausgeprägt ist, dass er von manchen als blockierungswürdig eingestuft wird. Dies führt ggf. dazu, dass ich Beiträge kostenpflichtig gestalten muss.

Durch Klick auf folgenden Button wird eine Mailvorlage geladen, die Sie inhaltlich gerne anpassen und an die VG Wort abschicken können.

Nachricht an VG WortMailtext anzeigen

Betreff: Datenschutzprobleme mit dem VG Wort Dienst(METIS)
Guten Tag,

als Besucher des Datenschutz-Blogs Dr. DSGVO ist mir aufgefallen, dass der VG Wort Dienst durch datenschutzfreundliche Browser (Brave, Mullvad...) sowie Werbeblocker (uBlock, Ghostery...) blockiert wird.
Damit gehen dem Autor der Online-Texte Einnahmen verloren, die ihm aber gesetzlich zustehen.

Bitte beheben Sie dieses Problem!

Diese Nachricht wurde von mir persönlich abgeschickt und lediglich aus einer Vorlage generiert.
Wenn der Klick auf den Button keine Mail öffnet, schreiben Sie bitte eine Mail an info@vgwort.de und weisen darauf hin, dass der VG Wort Dienst von datenschutzfreundlichen Browser blockiert wird und dass Online Autoren daher die gesetzlich garantierten Einnahmen verloren gehen.
Vielen Dank,

Ihr Klaus Meffert - Dr. DSGVO Datenschutz-Blog.

PS: Wenn Sie meine Beiträge oder meinen Online Website-Check gut finden, freue ich mich auch über Ihre Spende.
Ausprobieren Online Webseiten-Check sofort das Ergebnis sehen

Myter og misforståelser om kunstig intelligens

0
Dr. DSGVO Newsletter detected: Extended functionality available
More articles · Website-Checks · Live Offline-AI
📄 Artikel som PDF (kun for abonnenter på nyhedsbrevet)
🔒 Premium-Funktion
Der aktuelle Beitrag kann in PDF-Form angesehen und heruntergeladen werden

📊 Download freischalten
Der Download ist nur für Abonnenten des Dr. DSGVO-Newsletters möglich

Alle synes, at AI er fantastisk på en eller anden måde. Det er derfor, alle taler om AI. Fordi AI er et meget komplekst teknisk område, er der mange halve sandheder eller falske udsagn. Det hele er drevet af markedsføringsløfter fra Microsoft og andre. Denne artikel afklarer, hvad der er korrekt, og hvad der bør kategoriseres som alternative fakta.

Almindelige misforståelser om AI

På grund af den ofte ensidige rapportering, som altid drejer sig om ChatGPT eller Microsofts AI-produkter, synes der at opstå mange misforståelser. Nogle af dem er:

  • Sprogmodeller er baseret på statistik og er derfor ikke intelligente.
  • Et AI-system er en algoritme.
  • AI er et værktøj.
  • Et AI-system kan arbejde præcist.
  • ChatGPT er ikke intelligent.
  • ChatGPT er den bedste løsning.
  • AI kan sidestilles med ChatGPT (OpenAI), Claude (Anthropic), Mixtral (Mistral) eller Command R+ (Cohere). Der er ikke noget andet.
  • Dataene er sikre hos Microsoft.
  • AI kan drives i overensstemmelse med loven.
  • Tokens er ikke rigtige data.
  • AI-modeller gemmer ikke nogen personlige data.

Fra disse fejlanskuelse opstår ofte Falska påstande. Nogle af dem bliver nedenfor klargjort. I stedet for andre Cloud-tjenester taler følgende kun om ChatGPT.

Falske udsagn om AI

Følgende udsagn kunne læses i en eller anden form på de sociale medier. Udsagnene var formuleret i generelle vendinger på de steder, hvor de blev fundet, eller var specifikke, men ikke desto mindre forkerte.

ChatGPT er ikke intelligent

Efter definitionen af AI efter Dr. GDPR er ChatGPT intelligent. Denne definition af AI lyder:

ChatGPT er også intelligent ifølge Alan Turing, genial matematiker under Anden Verdenskrig og koder af Enigma-kodningsmaskinen: ChatGPT består Turing-testen. Testen tjekker, om en maskines svar ikke kan skelnes fra et menneskes. Tværtimod: ChatGPT giver ofte (næsten altid, kan man sige) betydeligt bedre svar end det gennemsnitlige intelligente menneske.

Den nye definition af AI-ordningen definerer også ChatGPT (håbentlig) som intelligent. Se Artikel 3 AI Act fra d. 12.07.2024.

Hvad er intelligens? Definitionen af kunstig intelligens er lige blevet givet. Du skal blot slette attributten "kunstig" to gange fra definitionen. Så har du definitionen på intelligens. Mennesker har ikke monopol på intelligens, selv om mange gerne vil have det til at være sådan.

Intelligens er baseret på menneskelige standarder

Mange mennesker tror, at intelligens er noget, der bestemmes af mennesker. I en nu revideret definition af, hvad kunstig intelligens er, hedder det i EU's AI-forordning, at kunstig intelligens skal nå mål "fastsat af mennesker …".

Der er ikke en eneste grund til denne misforståelse. Mennesker er irrelevante, når det handler om at bestemme, hvad intelligens er. Indtil nu har de højst kunnet bruges som en målestok. Det vil sandsynligvis ikke længere være tilfældet i fremtiden.

I øvrigt tilskrives intelligent adfærd også nogle dyrearter. Dyr er naturligvis ikke mennesker.

ChatGPT er den bedste løsning

Det kommer an på, hvad den skal bruges til. ChatGPT er ofte en god svarmotor til hverdagsopgaver. Det gælder især for viden om verden eller almindelige opgaver, som også afspejles i ChatGPT's træningsdata.

ChatGPT ser ud til at være uegnet til alle konkrete opgaver, der skal behandles på en nogenlunde professionel måde. Et eksempel: at opsummere en tekst uden halucinationer. Et andet eksempel: at finde viden.

ChatGPT kan og vil bestemt ikke scrape en stor del af internettet eller en hjemmeside for dig. Når alt kommer til alt, betaler du enten "kun" med dine og andres data. Eller du betaler 20 dollars om måneden eller et beskedent beløb pr. opkald til API'en.

ChatGPT kan derfor kun få adgang til indhold, der enten allerede er kendt eller ukendt, og som er af lille størrelse. Udtrykket "lille volumen" henviser til antallet af dokumenter eller hjemmesider.

ChatGPT er ikke en god løsning til opgaver som f.eks. digitalisering af dokumenter, da der er mange særlige forhold at tage hensyn til her.

ChatGPT er dårlig

Det kommer an på, hvad du skal bruge det til. ChatGPT er ikke en søgemaskine. Hvis du bruger systemet i strid med dets formål, bør du ikke blive overrasket over de middelmådige svar. Et AI-system er heller ikke designet til at tælle bogstaverne i et ord.

En AI er god til at løse komplekse opgaver kreativt. Den samme AI er dårlig til at udføre præcist arbejde. Ligesom mennesker!

AI-Training sei teuer

Det er rigtigt, at træningen af store sprogmodeller som ChatGPT er meget dyr og tidskrævende.

Men det er også sandt, at det er muligt at træne sine egne AI-sprogmodeller meget billigt. Årsagen er, at disse brugerdefinerede modeller er specialiserede til specifikke anvendelser. I mange tilfælde er det muligt at træne sådanne modeller på en bærbar computer eller din egen AI-server på bare et par timer.

Fordi dine egne AI-computere normalt er tændt og kører alligevel, er omkostningerne til AI-træning lig nul.

AI-træning er derfor i de fleste tilfælde gratis.

Inferens er dyrt

Inferens er at stille spørgsmål til en AI-model, som f.eks. at chatte med en sprogmodel som ChatGPT.

Det er rigtigt, at store sprogmodeller som ChatGPT kræver dusinvis eller endda hundredvis af servere på samme tid for at generere et svar på dit spørgsmål. Det er dyrt.

Men det er også rigtigt, at det ikke koster noget at konsultere en selvkørende AI-sprogmodel.

Det betyder, at omkostningerne til inferens er nul i de fleste tilfælde. Vi er ligeglade med, hvad OpenAI betaler for sine servere, ligesom OpenAI er ligeglad med, hvad vi betaler for vores computere.

Microsoft Azure og ChatGPT er sikre

Mange sælger deres "løsning" som innovativ. En bank har endda snakket om at introducere en egen (privat) AI, men mener med det Microsoft Azure. Azure er det modsatte af sikker. Microsoft selv er et mål for mange hackerangreb. Derudover skal man konstatere, at Microsoft ikke prioriterer sikkerhed højest.

Og så er der Microsofts enorme sult efter data. Den nye Outlook vil gerne hente e-mails fra kunderne til egne formål; Windows sender konstant brugerdata til Microsoft osv.

Microsoft Copilot er god

De første tests viser, at det modsatte er tilfældet. Copilot skal opsummere en tekst. Instruktionen (prompten) til dette var superenkel og utvetydig. Teksten blev givet direkte. Tekstlængden var ganske kort, fordi indtastningsfeltet i Copilots webinterface ikke tillod mere.

Testrapportet med screenshots afslører, at Copilot tydeligvis er fuldstændigt uanbrugelig til nogle opgaver. Selv ved en velvilende vurdering lykkedes det ikke at finde noget positivt i Copilots resultater. Sammenfattelsen af et udpluk fra Dr. DSGVO Blog-artiklen var så fejlagtigt, at en menneske ville føle sig skamfuld over det. Copilot opfandt en række påstande uden videre og udførte den stillede opgave ikke i det hele taget.

Ist der Microsoft-approach ist det sådan, som om Copilot var en fantastisk løsning og svarene kunne bruges direkte. Ingen sted kan læses, at et svar kunne være forkert eller lignende.

Sprogmodeller baseret på statistik

Ja, det er rigtigt. Det er præcis sådan, grammatik fungerer. Det er præcis sådan, intelligens fungerer. Se den menneskelige hjerne. Sprogmodeller er ikke trænet på samme måde som mennesker, der tager flere skridt for at give et svar.

Hele vores eksistens er baseret på sandsynligheder: Sammenlign radioaktivt henfald eller, endnu mere generelt, kvantefysik. Alt er baseret på tilfældigheder. Alting. Spørg eventuelt nogen, der ved noget om kvantefysik.

Det spiller ingen rolle, hvorfor et system er intelligent. Det afgørende er kun de resultater. Hvis du stadig tror, at det menneskelige hjerne ikke kan "hække", så måske interesserer en også ikke en beretning om et kunstigt rævehjerne, da det lykkedes tydeligvis at efterligne bevægelser og de tilhørende hjerneaktiviteter gennem en simulation.

AI kan bruges i overensstemmelse med loven

I teorien kan det være tilfældet. I praksis opstår der nogle spørgsmål:

  1. Hvor kommer de milliarder eller endda billioner af dataposter, der er blevet fodret ind i et AI-system til dets træning, fra?
  2. Med cloud-tjenester som ChatGPT eller Azure opstår spørgsmålet om, hvorvidt de juridiske betingelser er tilstrækkelige.
  3. Kan § 44b UrhG (den tyske lov om ophavsret) overhovedet overholdes?
  4. Hvordan kan data slettes fra en eksisterende AI-model?

Til spørgsmål 3: Den tyske lovgiver kræver, at Crawler kun må læse indhold fra websteder, hvis ejeren ikke har protesteret mod det. Protesten skulle, ifølge Tyskland, være i imprint eller AGB fastlagt. Det er teknisk set fuldstændig uigennemtrængeligt og ikke realiserbart. Crawler forstår ikke protestformuleringer på naturlig sprog. Der findes ingen AI-Crawler. Der findes kun dumme Crawler, der leverer indhold til systemer, som skal blive intelligente eller allerede er det. robots.txt-filen ville være en god løsning været. Desværre har Tyskland overset denne løsning. Yderligere skulle ejeren af Crawler senere kunne bevise, at der ikke var nogen protest. Dette er i praksis næsten umuligt. Så ville det være en stor retlig risiko og ofte også forbudt at crawle tyske websteder.

Til spørgsmål 1: Dataene kommer fra internettet. Tekster, billeder og andre værker er af sig selv beskyttet af ophavsretten. Ophavsretsbeskyttelsen opstår automatisk ved skabelsen af et værk, hvis det har den nødvendige skabende højde. Således må disse indhold enten ikke læses (se spørgsmål 3) eller kun så længe, til ejeren af retten siger nej. Generative AI producerer resultater, der potentielt er beskyttet af ophavsretten og dermed ulovlige ville være. Fordi kun læsningen må have været tilladt, ikke det at producere AI-svar.

Sletning af data i AI-modeller er ikke tilførligvis mulig. Et AI-modell må således fortsætte med at køre ulovligt, hvis nogen ønsker at de ikke længere skal se deres data i modellen (eller i det mindste i modellens svar). At kassere et AI-modul og træne det igen er ikke en mulighed for enorme modeller som ChatGPT, da det ville være meget dyr og tidssvær. Nye sletningsanmodninger ville udsætte processen til evigheden. For offline-AIeksisterer dog ikke dette problem.

Til spørgsmål 2: Se ovenover for beviser, hvorfor Microsoft og dens platforme skal betragtes som usikre. Der kommer også de juridiske dokumenter, der Microsoft og OpenAI pålægger brugerne. Det står tilbage at spørge, hvem der ordentlig prøver disse dokumenter og hvad der sker, hvis en mangel bliver opdaget. At diskutere problemer væk mag være en populær taktik, men det løser ikke det egentlige problem. Derudover ønsker Microsoft, som mange praktiske eksempler viser (Windows-telemetri-data, nyt Outlook med enormt databehov og adgang til kunde-mails ved hjælp af kunde-adgangskoder…), at samle meget data og intet andet. Hvorfor skal man stole på disse selskaber? Der er ingen grund til det.

AI er en algoritme

"En algoritme er […] en eindeudig handlingstilbud til løsning af et problem eller en klasse af problemer." (Kilde: Wikipedia, fet skrift her tilføjet).

Et AI-system bygger på et neuralt net. Om dette kan betegnes som en algoritme i den strikteste forstand, er det mere end tvivlsomt. Et neuralt net er uden tvivl ikke noget, der kan beskrives af mennesket. Særligt da det drejer sig om dybe net (derved også betegnelsen Deep Learning).

Når alt kommer til alt, kan mennesker heller ikke beskrives som algoritmer. Deres hjerne består også af et neuralt netværk.

Således skulle man måtte afvise påstanden, at et AI-system er en algoritme, ved strengere overvejelse. På Wikipedia bliver et AI-system ikke heller med en algoritme sammenlignet. I stedet bliver træningsfremgangen tilskrevet en algoritme, hvilket er plausibelt, fordi denne bedring af det neurale netværk under træning foregår efter tydelige regler.

Hvis du mener, at AI er en algoritme: Fortæl om et tilfælde, hvor du mener, at en automatiseret problemløsning IKKE er en algoritme. Vi er nysgerrige!

AI er et værktøj

Det er omtrent lige så sandt som at sige, at "en bil er en bunke stof" eller "cookies er filer". Så ville alt eller intet være et værktøj. Informationsindholdet ville i så fald være nul. Så udsagnet er ikke brugbart.

Mange mener AI-gestützte Tools, når man taler om AI som et værktøj. Sproglige uklarheder fører i hvert fald ikke til en bedre forståelse.

Under alle omstændigheder er intelligens ikke et værktøj, men en (enestående) egenskab ved et system.

Sprogmodeller kunne ikke logisk udlede

Fakt er: Sprogmodeller kan højt komplekse matematiske spørgsmål bedre løse end næsten hver eneste menneske på Jorden. Antaget, at et AI-system gør dette ved at læse alle mulige problemstillinger ind og derved lære af dem. Så har man allerede brugt ordet "lære". Bliver man ved med "Indlæse", så kan det være, at AI-systemet kan løse alle mulige, hidtil ukendte problemer, hvis de kun er halvvejs lignende de kendte problemer. Hvor er forskellen til de allermeeste mennesker?

En af AIMO's opgaver. Her ses svaret fra et AI-system, som også leverede løsningen. Kilde: se følgende link.

Vær venlig at læse matematikaufgaverne igennem, der er blevet stillet til AI-systemer ved AI Math Olympiad (AIMO). Såfremt I overhovedet forstår disse opgaver, så synes de åbenbart at være en, procentuelt set, meget lille del af verdens befolkning, der kan kalde sig selv til ejere af et meget dybtgående matematisk forståelse.

Selv om forfatteren af dette indlæg med hjælp fra det bedste matematikmodel kunne løse en meget vanskelig matematisk opgave, som han kun vidste (fra en matematiker), at den kunne løses ved hjælp af Diophantiske ligninger. Ingen anelse om hvad Diophantiske ligninger er. Det gåde var om sømænd og kokosnødder og skulle være så godt som ingen menneske på jorden nogensinde selv kunne løse. Dertil blev den lange tyske tekst af opgaven indskrevet i det engelsksprogede matematikmodel. AI's svar var forkert, men forsøgsvejen til at finde en løsning var så nær ved at være rigtig, at det med meget lidt indsats kunne lykkes at finde den rette løsning selv.

Tokens er ikke rigtige data

Mere præcist: Nogle mennesker mener, at bare fordi tekster gemmes som tal i sprogmodeller, gemmer sprogmodellerne ikke originale data.

Sprogmodeller gemmer tekst i form af talrækker (vektorer). Derfor bliver ord delt op i små stykker, der kaldes token. Hvert token svarer til en tal. Denne tilknytning af ordstykker til tal er unik for hvert sprogmodel og fastlagt i et ordbog (Ordforråd). Dette ordbog er ved hver sprogmodel som tekstfil tilføjet. Man kan altid se denne tekstfil og udværte den.

Den talrekke 4711, 0815, 9933 kunne hermed være tilsvarende bogstavrekken Maxi, mi, lian. Det er åbenbart muligt at føre talene tilbage på ord. Således er de talrækker personbezirede, hvis de ved hjælp af disse tal kodificerede bogstaver repræsenterer personbezirede data. Selv indirekte på en person henlede data er også personbezirede (se Art. 4 nr. 1 GDPR).

Sprachmodeller formerer videre sin udgang på kumulative sandsynlighedsværdier af tokens. Deroverfor betragtes ikke kun to tokens, men en hele kæde af tokens. En teknisk parameter, der styrer dette, hedder top_p.

Afhandlingen fra Hamborg (se nedenfor) er derfor grundlæggende forkert. Det ser ud til at være skrevet på denne måde for at legalisere alle AI-systemer, hvoraf de fleste sandsynligvis vil være ulovlige.

AI-sprogmodeller vil ikke gemme nogen personlige data

Argumentationen fra den hamborgske dataskyddsombudsmand (HmbBfDI) går således: Det er uhyre svært at udtrække persondata fra sprogmodeller. Den europæiske Domstol har sagt, at rekonstruktion af en personlig tilknytning kun kan anses mulig, hvis midlerne og indsatsen derfor ligger inden for det almindelige ramme. HmbBfDI siger, at kun med en udviklet, rettenskrøblet privatlivsangreb kunne persondata udtrækkes fra sprogmodeller. Fordi indsatsen til dette ville være enorm, er det ifølge EuGH-domstolens afgørelse ikke persondata.

Her er et simpelt modeksempel, som let modbeviser HmbBfDI:

Forespørgsel til ChatGPT og svar fra ChatGPT. Status: 15.07.2024 (billedet blev automatisk oversat).

Sprogmodeller gemmer data om alle mennesker ligeligt. Selv mennesker, der ikke er offentlige personer, bliver gemt i sprogmodellen og det sker under dens pre-træning over Træningsdata. Trainingsdaten består af mange milliarder dokumenter. Det er usandsynligt, at der kun findes Angela Merkel eller andre mennesker, der er åbenlyse offentlige personer, som tydeligvis har mindre ret til privatliv end den almindelige borger.

Det er endda muligt at hente fuldstændige citater fra et sprogmodel ud. Den forbinde artikel viser også, at der i LLMs meget vel kan være personlige data. I modsætning til HmbBfDI's antagelse er alle store AI-modeller en del af et AI-system. Det betyder: Et AI-system kan tolke de tal, som et AI-model består af, og omvandle dem til tekst igen. Kun at have et AI-model på harddisken uden muligheden for tolkning ville være usikkerhed. Denne usikre situation findes dog ikke hos ChatGPT eller GPT-4o. Den findes kun i teorien hos Open Source sprogmodeller, men også kun i teorien. Fordi det blot kræver at man downloader en meget udbredt programmeringssamling for at kunne tolke indholdet af modellen. Desværre har HmbBfDI opbygget en teknisk forskel mellem ChatGPT og GPT-4o, der ikke findes.

I sig selv er det ligegyldigt:

  1. Hvis man bruger en LLM, er der ofte personlige data. Hvis disse bringes i omløb, er den person, der gør det, ansvarlig.
  2. Hvis en LLM ikke bruges, er det normalt ligegyldigt, hvilke data LLM'en indeholder. Der er ingen, der ser det.
  3. Så det handler ikke primært om opbevaring.

Der kan ikke være noget, der hedder generel kunstig intelligens

Denne type af intelligens kaldes også for AGI. AGI står for Artificial General Intelligence. Vi er kun ved begyndelsen. Tydeligvis er intelligente robotter, der går rundt i verdenshistorien, endnu ikke meget at se.

Sandhed er: Få virksomheder alene vil allerede tusind milliarder dollars investere i bygning af intelligente robotter. Dertil skal man:

  1. En robot (den er der allerede, og den bliver bedre og bedre).
  2. En elektronisk hjerne (den er der allerede, og den bliver bedre og bedre).
  3. En person, der sætter hjerneboksen (computer med AI) på robotten (denne person er der allerede).

Selvlerende systemer** findes allerede. Se ChatGPT eller NuminaMath (nedenfor). Det er kun en spørgsmål af tid, før robotter lærer at styre vores verden bedre end vi selv vil kunne gøre det.

Først om mange år vil AI være altoverskyggende

Det kan ikke bevises, at denne antagelse er falsk, og det kan udsagnene i det foregående afsnit om AGI heller ikke. Det vil tiden vise.

Det er rigtigt: AI-udviklingen skred frem i Superluminal hastighed. Det, der ikke var muligt for 2 uger siden, er nu muligt. Dette gælder f.eks. for fremskridtet med åbne kilder-sprogmodeller. Den ovennævnte AIMO blev vundet af et åben kilder-modul navngivet NuminaMath. Det svarede 29 ud af 50 sværere matematiske problemer korrekt, der var stillet i tekstform.

Google påstår sig være kommet en fremgang i robotteknologien med hjælp af et sprogmodel.

Forudsigelse af Dr. DSGVO: Om 10 til 15 år vil der være robotter, der løber rundt og udgør en alvorlig trussel mod menneskeheden. Det kan også være om 5 år (man skal være ekspert i robotteknologi for at vide det med sikkerhed). Men der vil helt sikkert ikke gå yderligere 35 år, før vi for alvor skal bekymre os om vores eksistens på grund af AI's overlegenhed. Hvis du har børn, forudsiger denne artikel, at de vil forme slutningen af deres liv på en anden måde, end det er godt for dem.

Opsummeret

Her er de vigtigste udsagn i den korrekte form:

  • ChatGPT er et intelligent system, som er langt bedre end mennesker til mange opgaver.
  • Intelligens er uafhængig af mennesker.
  • Kunstig intelligens er intelligens i et kunstigt system. Du er velkommen til selv at definere, hvad der er kunstigt (det er ligegyldigt).
  • Spørgsmålet til sprogmodeller koster intet. Det gælder for Offline-AI, altså selvstændige sprogmodeller.
  • Træningen af AI-modeller koster intet. Det gælder for træning på eget hardware eller lejede hardware. Denne hardware er allerede tændt. Om et AI-træning løber på den eller ej, er for de udgifter til hardware ligegyldigt.
  • AI er ikke en algoritme, men en underværdselig løsningmulighed for mange problemer.
  • Microsoft Copilot er et ubrugeligt system. Under alle omstændigheder gælder det selv for de simpleste standardopgaver, som enhver Offline-AI kan gøre bedre.
  • Azure-skyen er ikke sikker. Det viser talrige hændelser, hvor Microsoft ikke har brilleret.
  • AI vil blive en trussel mod menneskeheden i løbet af få år. Eller som Sam Altmann fra OpenAI udtrykte det: "AI vil slå os alle sammen ihjel. Men indtil da vil den være utrolig nyttig."

Hvis du vil indføre en eigen AI (Offline-AI) i dit firma, er det følgende vigtigt at vide:

  • En Offline-AI kan optimeres. Det giver bedre resultater end ChatGPT i mange tilfælde. Det skyldes også, at dit system kun fungerer for dig og ikke behøver at fungere for millioner af andre brugere.
  • En Offline-AI giver fuld datakontrol. Enhver DPO er glad for at have en Offline-AI.
  • En Offline-AI er billig i drift, enten ved at købe en AI-server eller ved at leje en sådan server i et tysk datacenter hos en tysk udbyder.
  • En Offline-AI kan hente data fra internettet eller kommunikere med andre IT-systemer.

Hvad er dine spørgsmål eller indsigter?

About the author on dr-dsgvo.de
My name is Klaus Meffert. I have a doctorate in computer science and have been working professionally and practically with information technology for over 30 years. I also work as an expert in IT & data protection. I achieve my results by looking at technology and law. This seems absolutely essential to me when it comes to digital data protection. My company, IT Logic GmbH, also offers consulting and development of optimized and secure AI solutions.

WHOIS: Hvem ejer en bestemt internetadresse, og hvilke databeskyttelsesspørgsmål opstår der i den forbindelse?