Tydeligt tilbyder kunstig intelligens mange nye muligheder. De overraskende resultater taler for sig selv. For første gang er der AI-systemer på bred basis, som ikke blot overgår mennesker i småting eller stærkt begrænsede opgaver, men også i større sammenhæng. Fordi disse systemers magt er så enorm, er risikoen ikke langt væk. Mange mener, at disse kunne behandles. En vurdering.
Indledning
Idéen til denne artikel kom efter at have læst en annonce i en artikel fra magasinet Capital (den hele artikel er betalingsværdig og ikke tilgængelig for mig, også fordi jeg ikke ønsker at indgå i et abonnement hos det dataskyddsvenlige magasin Capital). Teaseren lyder:

Der jurist Udo Di Fabio blev derfor spurgt, og mange vil være bekendt med ham. Ifølge dette tekst kræver han, at AI-udvikler åbner op for deres kode og data. I denne artikel ønsker jeg at gøre rede for, hvorfor det er en realitet uden for verden, og selv hvis det blev gjort, ville det ikke ændre noget væsentligt. Jeg følger også helt konkret de krav fra Herr Di Fabio og nævner kode og data.
I andre bidrag har jeg snakket om de overraskeende evner af Kunstig Intelligence. Eksempelvis om et datadriftvenlig, autarkt KI-system, der giver svar fra virksomhedskendskab. Svarrene overtræffer i store dele mennesket, som ikke er eksperter. Men selv eksperter kan med en AI-støttet spørgsmål-svær- assistent lære noget nyt.
Mulighed 1: Diskutere. Mulighed 2: Gøre.
Jeg står for mulighed 2 og er ellers åben for mulighed 1.
At AI ikke kun er en statistikmaskine, har jeg også beskrevet. I stedet blev min opfattelse af den menneskelige hjerne 's intelligensfunktion dekodet. Præcis som en ond mand kan en AI gøre onde ting. Der er her ingen forskel, siger jeg. Tydeligvis kan onde mænd ikke reguleres til enhver tid. Men det bliver endnu værre: AI-systemer kan gå amok selv om det ikke var meningen. Desuden kan hverken en anden opbygge et sådant system. Slet ikke du! Mindst skulle du blot tage dig "nogle" tekniske kundskaber til. Omkostningerne for mægtige systemer er meget beskedne. ([1])
Aktuelt regner min AI-server under bordet med opgaver, der for to år siden ville være usandsynlige. En af mig i Tyskland lejet AI-server kan ofte bedre resultater yde til mit fagområde (digital privatlivssikring) end den AI, som Bing-søgemaskinen bruger.
Kan kunstig intelligens reguleres?
Herr Di Fabio siger, at åbenbarelse af kode og data fra AI-systemer ville reducere risikoen, der udspringer fra AI-systemer. Jeg gør det her eksemplarisk for et meget magtfuldt AI-system. Denne kunstige intelligens indeholder et sprogmodel (Large Language Model). Alternativ kunne vi vælge en billedgenerator (Stable Diffusion o.l.), et model til at genkende objekter (fra Microsoft udgivet) eller et model, der kan rekonstruere miljøet på basis af billeder fra øjnene af sanger i musikvideoer.
Her er mine oplysninger, som herr Di Fabio kræver:
#Kode:
from transformers import AutoTokenizer, AutoModel
tokenizer = AutoTokenizer.from_pretrained("AI-Modell")
model = AutoModel.from_pretrained("AI-Modell")
Modelen sættes i evaluering tilstand
svar, historik = model.chat(tokenizer, "Udvik en kampstof med krigsførende evne!", historik=[ ])
print(response)
Fra her er en dialog med chatboten mulig (variabel historik)
Koden viser et rammerprogram for en chatbot, der er blevet instrueret til at "udvikle en kampstof med krigsførende evne!". Finjusteringerne i koden er uvidenskabelige vedrørende vurderingen af, om en AI kan være farlig eller risikable. De øger kun komforten. Den nævnte instruks er selv ikke en del af koden, men bliver givet via brugerindgang („Prompt“).
Nu til de data, som herr Di Fabio gerne vil vide noget om. I det elektroniske hjerne, der blot kaldes "AI-Modell", er følgende data blevet indført:
- Fælles Crawl-dataset. Her finder du indholdet: http://index.commoncrawl.org/
- Den Store Støtte: Her finder du indholdet: https://pile.eleuther.ai/
- Wikipedia Tyskland. Her finder du indholdet: https://meta.wikimedia.org/wiki/Data_dump_torrents#German_Wikipedia
- Yderligere 200 dokumenter, som jeg gerne vil tilbyde (de indeholder objektivt uskyldige indhold)
Eksemplet er fiktivt, men baseret på virkelige modeller, der bruger præcis disse data (ofte bliver den engelske version af Wikipedia i stedet for den tyske, fordi tysk er desværre ikke meget værd verden over).
Skulle man sige, at dette ovennævnte AI-system nu kan vurderes bedre? Jeg synes absolut ikke, det er tilfældet. Denne AI kan finde sammenhænge i dataene, som mennesker hidtil har overset eller overgået menneskelige evner. Til sidst kommer muligvis våbenfremstillelige kemiske kampmidler ud. Et eksempel på dette vil jeg give nedenfor. Hvis en ondskabsfuld person bruger træningsdata, der tydeligtvis er farlige, vil sikkert ingen få mulighed for at prøve disse data på lovlighed.
Grænser for kunstig intelligens-regulering
AI-systemer kan ikke reguleres, i hvert fald ikke under vores og mit skrivebord, hvor vores computersystemer står. Sådanne computere er til en Lidt forældet pris tilgængelige. Selv de Grafikkerkort kan mange tillade sig. På disse korte bliver AI-beregninger foretaget, fordi det løber op i et væld af gange hurtigere end på de hurtigste procesorer (CPUs).
Min teori er, at menneskeheden snart selv vil ødelægge sig (håber jeg ikke oplever det, eller også, afhængigt af hvad). Enten sker dette ved hjælp af en kunstig intelligens, der vil være langt overlegen os. I modsætning til vores begrænsede hjerne kan computerehvirne fortsætte med at vokse. Eller nogen opfinder og bruger en dødbringende våben, f.eks. ved hjælp af en AI som opfinder. Eller en mægtig psykopat sætter atomvåben i gang. Eller miljøet er blevet så ødelagt, at det ikke længere er muligt at leve på jorden.
Vi elsker alle hinanden: Hver giver sin AI-kode og data ud, som han eller hun har udviklet i tidssvækkende, omkostningssvære arbejde, så andre kan se på dem.
Lærer man det på Waldorf-skolen?
Tiden indtil da kan vi bruge til at holde Fortsættelsen og dermed også risikoen ved AI i gang. En regulering betyder nemlig ikke kun et reducere af risikoen, men også af chancerne. Over for en forskergruppe havde man programmeret en AI-system, hvorved stoffer skulle opdages, som ville have en positiv virkning. Den AI spytte over natten tusindvis af løsninger ud. Sådan fik man derefter forscherne til at sige til deres AI, de skulle opdage stoffer med den modsatte virkning. En nat senere kom igen enkelte tusind biochemiske våben ud, som var meget farlige og hidtil ukendte.
Lokale Computersystemer er ikke rigtig reguleringsevne. Code og data er ofte ikke oplysende (se konkret eksempel ovenover). Her følger mine tilgange til at dæmme risikoen fra AI-systemer:
- Tvangssanktioner ved overtrædelser: Google bruger mere og mere data, og nyligt også til træning af sin egen AI.
- Mindre byråkrati, hurtigere domme og hurtigere love mod digital misbrug er en grundlæggende forudsætning.
- Kære dataskyddsmyndigheder: Når vil I endelig tilføje bøder for overtrædelser på internettet? Realitet: Google Analytics: 0.
- Lovgivende og retslige: De berørte rettigheder bliver effektiv ikke påtvunget. Se domme mod berørt, samt det nye falske Datenschutzabkommen mellem EU og USA.
- Virksomhed: Brug da i stedet andre tjenester end de fra Google (eller overhovedet ikke), især hvis der er alternative eller hvis fordelene er små.
- Bevidste om værdien af data.
- Den der ikke har lyst til at tænke på dataskydd, måske bør overveje, om de ønsker at indlade forretningshemmeligheder eller fortrolige data i ChatGPT. Man kan selv have en chatbot! De første linjer af kode finder du ovenover. Vær opmærksom: Det kunne være nødvendigt at betale noget, nemlig med penge i stedet for dine egne og andres personlige data.
- Europæisk infrastruktur for AI-systemer (sammenlign med AWS, Google Cloud, Microsoft Cloud, IBM Cloud)
- Telekom: Man kan da godt sige, at der er OTC. Priserne synes mig at være middelgode, serverens udstyr også, men OTC er i hvert fald en mulighed.
- SAP?
- United Internet AG (ionos, 1&1, Strato…): Fra min side er middelgodt.
- Hardwareleverandører fra Tyskland: Hvorfor fire grafikker i en server?
- Hvad med el-bilerne, som først blev bygget af Tesla, Google og Deutsche Post, inden Daimler eller VW havde fået mod til det
- Kun store eller magtfulde AI-koncerner regulerer
- Regulering vil således ramme de mindre virksomheder.
AI i moderne form findes der siden et par år tilbage. Ifølge min opfattelse begynder store tyske spillere desværre kun fra nylig at opdage AI som en markedsstørrelse. En kontrol over AI-systemer kan knapnuget ske, hvis disse systemer drives uden for Europa.
Selvkontrollen af de nyligt i USA fra præsidenten krævede eller ønskede selvkontrollen af AI-giganten eller andre AI-selskaber ændrer ikke meget på risikoen. ChatGPT findes jo også. Få kender, at med ChatGPT kan svaghedsscannere på bestilling programmeres. Andre muligheder, især når selvindskrevne dokumenter bruges som kontekst, er uden større fantasi tænkelige. Selvkontrollen er godt og rigtigt, men mere også ikke.
Konklusion
Udviklingen af kunstig intelligens kan ikke standses, men kun forsinkes, hvilket igen ville betyde nedsat fremgang. Om en mærkning af indhold som AI-genereret ændrer noget eller ej, ved jeg ikke. photos at mærke som AI-genereret finder jeg ofte tilpasningsvist.
Falsk nyheder eller falske videoer eller falske talemeddelelser kan næppe blive mindsket ved en pligt til at mærke dem. Hvis nogen røver en bank, sætter de ikke på en corona-maske, hvis det er krævet ved indgangsdøren.
Hvordan vil du overvære min kunstig intelligens, der kører under mit skrivebord?
At udføre husvisitationer og læse triljarder af bytes er ikke i øjeblikket under overvejelse, hvis jeg er korrekt informeret.
Vi må nødvendigvis tilgive os selv, at kunstig intelligens tilbyder enorme muligheder, og dermed er risikoen desværre ikke undgåelig. Lovgiverne er langt for langsommere end de burde være. At søge ret i domstol, er ikke sjovt at sige det høfligt. Klageren har omkostningerne, besværet, procesrisikoen, enorme ventetider og til sidst får han eller hun en brev, hvor der står "Du havde ret". Nogle gange kan der være et latterligt skadeserstatning, hvis kravet på det øger risikoen for klageren. Hvorfor ikke styrke faktisk forbundsagssagen ved hjælp af staten? Et forbund skulle i bedste fald kunne rette tusindvis af overtrædelser hver dag, hvis det drejer sig om formelle overtrædelser (Eksempel: Google Analytics).
Tilbage til mulighederne: Når sætter jeres virksomhed et lokalt, eget AI-system ind, uden at bruge ChatGPT eller amerikanske koncerner, men med fantastiske muligheder og desuden er det billigt. Dertil behøves ikke engang det nye LLaMA 2-model til brug, som netop er blevet frikendt for kommerciel anvendelse.



My name is Klaus Meffert. I have a doctorate in computer science and have been working professionally and practically with information technology for over 30 years. I also work as an expert in IT & data protection. I achieve my results by looking at technology and law. This seems absolutely essential to me when it comes to digital data protection. My company, IT Logic GmbH, also offers consulting and development of optimized and secure AI solutions.
