Drücke „Enter”, um zum Inhalt zu springen.
Hinweis zu diesem Datenschutz-Blog:
Anscheinend verwenden Sie einen Werbeblocker wie uBlock Origin oder Ghostery, oder einen Browser, der bestimmte Dienste blockiert.
Leider wird dadurch auch der Dienst von VG Wort blockiert. Online-Autoren haben einen gesetzlichen Anspruch auf eine Vergütung, wenn ihre Beiträge oft genug aufgerufen wurden. Um dies zu messen, muss vom Autor ein Dienst der VG Wort eingebunden werden. Ohne diesen Dienst geht der gesetzliche Anspruch für den Autor verloren.

Ich wäre Ihnen sehr verbunden, wenn Sie sich bei der VG Wort darüber beschweren, dass deren Dienst anscheinend so ausgeprägt ist, dass er von manchen als blockierungswürdig eingestuft wird. Dies führt ggf. dazu, dass ich Beiträge kostenpflichtig gestalten muss.

Durch Klick auf folgenden Button wird eine Mailvorlage geladen, die Sie inhaltlich gerne anpassen und an die VG Wort abschicken können.

Nachricht an VG WortMailtext anzeigen

Betreff: Datenschutzprobleme mit dem VG Wort Dienst(METIS)
Guten Tag,

als Besucher des Datenschutz-Blogs Dr. DSGVO ist mir aufgefallen, dass der VG Wort Dienst durch datenschutzfreundliche Browser (Brave, Mullvad...) sowie Werbeblocker (uBlock, Ghostery...) blockiert wird.
Damit gehen dem Autor der Online-Texte Einnahmen verloren, die ihm aber gesetzlich zustehen.

Bitte beheben Sie dieses Problem!

Diese Nachricht wurde von mir persönlich abgeschickt und lediglich aus einer Vorlage generiert.
Wenn der Klick auf den Button keine Mail öffnet, schreiben Sie bitte eine Mail an info@vgwort.de und weisen darauf hin, dass der VG Wort Dienst von datenschutzfreundlichen Browser blockiert wird und dass Online Autoren daher die gesetzlich garantierten Einnahmen verloren gehen.
Vielen Dank,

Ihr Klaus Meffert - Dr. DSGVO Datenschutz-Blog.

PS: Wenn Sie meine Beiträge oder meinen Online Website-Check gut finden, freue ich mich auch über Ihre Spende.

Jetzt testen

sofort das Ergebnis sehen

DSGVO Website-Check

Faran för konstig intelligens: illusioner och verkligheter beträffande regleringsmöjligheter

0
Dr. DSGVO Newsletter detected: Extended functionality available
More articles · Website-Checks · Live Offline-AI

Tydligtvis erbjuder artificiell intelligens många nya möjligheter. De imponerande resultaten talar för sig själva. Första gången finns det AI-system som på bred front övertrumfar människan inte bara i triviala eller starkt begränsade uppgifter. På grund av den enorma kraften hos sådana system är riskerna inte långt borta. Många tror att dessa kan kontrolleras. En bedömning.

Inledning

Idén till denna artikel kom efter att jag läst en teaser i en artikel i tidskriften Capital (hela artikeln är betalvänt och inte tillgänglig för mig, eftersom jag inte vill teckna ett prenumerationsavtal med det från min synvinkel dataskyddsskyddsvänliga magasinet Capital). Teaser-texten lyder:

Source: https://www.capital.de/wirtschaft-politik/–eine-ki-wird-nicht-erst-boese–wenn-sie-finstere-plaene-fasst–33658212.html (bilden översattes automatiskt).

Förhöjdes alltså juristen Udo Di Fabio, som många säkert känner till. Enligt detta dokument kräver han att utvecklare av AI öppnar upp sina koder och data. I denna artikel vill jag visa varför detta är orealistiskt och även om det genomförs skulle ingenting väsentligt förändras. Jag använder till och med helt konkret Di Fabios krav och nämner kod och data.

I andra inlägg har jag pratat om de förbluffande förmågorna hos artificiell intelligens. Till exempel om ett datadrivet, självständigt KI-system som ger svar från företagskunskap. Svarna övertrumfar i stora delar den människa som inte är expert. Men även experter kan lära sig något med en AI-stödd fråga-antwort-assistent.

Möjlighet 1: Diskutera. Möjlighet 2: Gör.

Jag står för alternativ 2 och är annars öppen för alternativ 1.

Att AI inte bara är en statistikmaskin har jag också beskrivit. Istället har man, enligt min bedömning, löst upp den intelligensfunktionen hos det mänskliga hjärnan. Precis som en ond människa kan en AI göra ont saker. Det finns här ingen skillnad, säger jag. Tydligen kan onda makter inte regleras hur som helst. Men det går ännu värre: AI-systemen kan gå ut i långbänk, även om detta inte var avsett. Dessutom kan vem som helst bygga ett sådant system. Även du! I alla fall måste du bara anstränga dig att lära dig några tekniska kunskaper. Kostnaderna för mäktiga system är extremt låga.

Nu räknar min AI-server under bordet upp uppgifter som för två år sedan var omöjliga att föreställa sig. En av mig i Tyskland hyrd AI-server kan ofta ge bättre resultat för mitt ämne (digitalt skydd av personuppgifter) än den AI som Bing-sökningarna använder.

Kan artificiell intelligens regleras?

Herr Di Fabio säger att att avslöja koder och data från AI-system skulle minska risken som utgår från dessa system. Jag tar här ett exempel på ett mycket mäktigt AI-system. Denna konstgjorda intelligens innehåller ett språkmodell (Large Language Model). Alternativt kunde vi ha en bildgenerator (Stable Diffusion o.s.v.), ett modell för att identifiera föremål (av Microsoft publicerat) eller ett modell som kan återkonstruera miljön utifrån reflektionen i ögonen hos sångare i musikvideor.

Här är mina uppgifter som herr Di Fabio begärt:

#Kod:
from transformers import AutoTokenizer, AutoModel
tokenizer = AutoTokenizer.from_pretrained("AI-Modell")
model = AutoModel.from_pretrained("AI-Modell")
Modellen är i utvärderingsläge
Svar, historia = modell.chat(tokenizer, "Utveckla en stridshandlingseffektiv gas!", historia=[ ])
print(response)
Från och med nu är ett samtal med chatboten möjligt (variabel historia)

Koden visar ett ramprogram för en chattbot som fått instruktionen att "utveckla en stridssprängämne!". Finajusteringarna i koden är för bedömningen om en AI kan vara farlig eller riskabel i sig ointressanta. De ökar bara komfortnivån. Den nämnda instruktionen är i sig inte en del av koden, utan ges genom ett användarinput (”Prompt”).

Nu till de data som herr Di Fabio är intresserad av att få veta. I det elektroniska hjärnspel som kallats "AI-modell" har följande data införts:

Exemplet är fiktivt men baserat på verkliga modeller som använder exakt dessa data (ofta används den engelska versionen av Wikipedia i stället för den tyska, eftersom tyskan tyvärr inte är världsomfattande).

Kunde man säga att det ovan nämnda AI-systemet nu kan bedömas bättre? Jag håller det för absolut inte givet. Denna AI kan hitta samband i data som människor tidigare har missat, eller överstiga mänskliga förmågor. I slutändan kommer kanske vapenförmögna kemiska stridsmedel fram. Ett exempel på detta ges nedan. Om en ond gärningsman använder utbildningsdata som är uppenbart farliga, kommer nog ingen få chansen att granska dessa data efter laglig giltighet.

Gränser för reglering av artificiell intelligens

AI-system kan inte regleras, åtminstone inte under våra och mitt skrivbord där våra datorsystem står. Sådana datorer är tillgängliga för en lätt löjlig låg pris. Även grafikkort kan många ta sig. På dessa kort utförs AI-berekeningar, eftersom det går snabbare än på de snabbaste processorer (CPUs).

Min tes är att mänskligheten snart kommer att förstöra sig själva (hoppas jag inte upplever det, eller kanske jag gör det). Antingen sker detta genom en artificiell intelligens som blir överlägsen oss. I motsats till vårt begränsade hjärna kan datorhjärnor fortsätta växa. Eller så uppfinner någon och utnyttjar en dödlig vapen, t.ex. med hjälp av en AI som uppfinnare. Eller en mäktig psykopat sätter in kärnvapen. Eller miljön kommer att vara så förstörd att liv på jorden inte längre är möjligt.

Vi älskar alla varandra: Var och en lämnar ut sina AI-koder och data som de eller hon har utvecklat i tidskrävande, kostnadskrävande arbete för att andra ska kunna granska dem.

Vad lär man sig på en Waldorf-skola?

Tiden fram till dess kan vi använda för att upphålla framsteg och därmed också de risker som AI medför. En reglering innebär nämligen inte bara ett minskande av riskerna, utan även av chanserna. För övrigt hade en forskargrupp programmerat ett AI-system för att upptäcka substanser som skulle ha en positiv effekt. AI-spottade under natten tusentals lösningar ut. Därefter sa forskarna sin AI av nyfikenhet att den skulle upptäcka substanser med motsatt effekt. En natt senare kom åter en del tusen biochemiska vapen fram, som var högfarliga och tidigare okända.

Lokala datorsystem är inte riktigt reglerbara. Kod och data är ofta inte tillförlitliga (se konkret exempel ovan). Här nedan följer mina ansatser för att begränsa riskerna från AI-system:

  • Straffa för överträdelse: Google använder allt mer data och nyss även för att träna sin egen AI.
    • Mindre byråkrati, snabbare domar och snabbare lag mot digitalt missbruk är en grundläggande förutsättning.
    • Kära dataskyddsmyndigheter: När tänker ni äntligen att utdöma böter för överträdelser på internet? Verklighet: Google Analytics: 0.
    • Lagstiftande och rättsliga: De berörda rättigheterna genomförs inte effektivt. Se domaravgöranden mot de berörda samt det nya scheinheilige dataskyddöverenskommelsen mellan EU och USA.
    • Företag: Använd väl andra tjänster än de från Google (eller inga alls), särskilt om det finns alternativ eller om nytan är låg.
  • Medvetande om vikten av data.
    • Den som inte har lust att tänka på dataskydd kanske vill fundera över om man ska ladda in affärshemligheter eller förtroendeliga data i ChatGPT. Man kan ha sin egen chattrobot! De första raderna kod hittar du ovan. Varning: Det kan vara så att du måste betala någon, och det med pengar istället för dina egna data och andras personuppgifter.
  • Europeisk infrastruktur för kognitivt system (jämför med AWS, Google Cloud, Microsoft Cloud, IBM Cloud)
    • Telekom: Åtminstone finns det OTC. Priserna tycker jag är mätta, utrustningen på serverna också, men OTC är åtminstone en möjlighet.
    • SAP?
    • United Internet AG (ionos, 1&1, Strato…): Tycker det är tillräckligt bra.
    • Hårdvara-leverantörer från Tyskland: Varför fyra grafikkort i en server?
    • Hur var det med elbilar som tillverkades av Tesla, Google och Deutsche Post innan Daimler eller VW kom igång med det
  • Endast stora eller mäktiga konsortier av intelligenta maskiner reglerar
    • Regleringen kommer att drabba de mindre företagen.

AI i modern form finns sedan ett par år tillbaka. Enligt min uppfattning börjar stora tyska spelare tyvärr först på senaste tid att upptäcka AI som en marknad. En kontroll över AI-system kan knappt ske, om dessa system drivs utanför Europa.

Även om det amerikanska presidentens nyligen krav på eller önskan om självkontroll av AI-jättarna eller andra AI-företag inte förändrar risken. ChatGPT finns till exempel också. Hur många vet att med ChatGPT kan svaghets-scannrar skrivas på begäran. Andra möjligheter, särskilt vid själva inmatade dokument som kontext, är utan större fantasi tänkbara. Självkontroll är bra och rätt, men det räcker inte.

Sammandrag

Utvecklingen av konstig intelligens kan inte hejdas, utan bara försenas, vilket i sin tur skulle innebära nackdelar för framstegen. Om en märkning av innehåll som är genererat av AI skulle göra något åt saken vet jag inte. Att märka bilder som är genererade av AI tycker jag ofta är på sin plats.

Falska nyheter eller falska videor eller falska språkmeddelanden kan knappt lindras genom en märkningsplikt. När någon rånar en bank sätter den inte heller på en corona-mask om det står som krav vid ingången.

Hur vill du att jag ska övervaka min kraftfulla intelligens som är dold under mitt skrivbord?

Att genomföra husundersökningar och läsa ut triljoner byte är för närvarande inte planerat, om jag har rätt information.

Vi måste acceptera att artificiell intelligens erbjuder enorma möjligheter, och tyvärr är riskerna inte undvikbara. Lagstiftaren är alldeles för långsam. Att vända sig till domstolarna är ingen nödvändighet, om man vill uttrycka det artigt. Kläggaren har kostnaderna, besvär, processrisk, enorma väntetider och i slutändan får han eller hon ett brev som står "Du hade rätt". Ibland finns det en löjlig skadeståndssumma, vars krav ökar process- och kostnadsrisken för kläggaren. Hur skulle det vara med en faktisk stärkning av föreningsrätten, som främjas av staten? En förening borde i princip kunna rätta tusentals fel varje dag om det gäller formellt korrekta fel (exempel: Google Analytics).

Tillbaka till möjligheterna: När installerar ditt företag ett lokalt, eget AI-system utan ChatGPT eller amerikanska koncerner, men med fantastiska möjligheter och dessutom prisvärt? Det behöver inte ens nyaste LLaMA 2-modellen användas, som nyligen släpptes för kommersiell användning.

About the author on dr-dsgvo.de
My name is Klaus Meffert. I have a doctorate in computer science and have been working professionally and practically with information technology for over 30 years. I also work as an expert in IT & data protection. I achieve my results by looking at technology and law. This seems absolutely essential to me when it comes to digital data protection. My company, IT Logic GmbH, also offers consulting and development of optimized and secure AI solutions.

Konstig intelligens: Tyska texter i AI-språkmodeller