Drücke „Enter”, um zum Inhalt zu springen.
Hinweis zu diesem Datenschutz-Blog:
Anscheinend verwenden Sie einen Werbeblocker wie uBlock Origin oder Ghostery, oder einen Browser, der bestimmte Dienste blockiert.
Leider wird dadurch auch der Dienst von VG Wort blockiert. Online-Autoren haben einen gesetzlichen Anspruch auf eine Vergütung, wenn ihre Beiträge oft genug aufgerufen wurden. Um dies zu messen, muss vom Autor ein Dienst der VG Wort eingebunden werden. Ohne diesen Dienst geht der gesetzliche Anspruch für den Autor verloren.

Ich wäre Ihnen sehr verbunden, wenn Sie sich bei der VG Wort darüber beschweren, dass deren Dienst anscheinend so ausgeprägt ist, dass er von manchen als blockierungswürdig eingestuft wird. Dies führt ggf. dazu, dass ich Beiträge kostenpflichtig gestalten muss.

Durch Klick auf folgenden Button wird eine Mailvorlage geladen, die Sie inhaltlich gerne anpassen und an die VG Wort abschicken können.

Nachricht an VG WortMailtext anzeigen

Betreff: Datenschutzprobleme mit dem VG Wort Dienst(METIS)
Guten Tag,

als Besucher des Datenschutz-Blogs Dr. DSGVO ist mir aufgefallen, dass der VG Wort Dienst durch datenschutzfreundliche Browser (Brave, Mullvad...) sowie Werbeblocker (uBlock, Ghostery...) blockiert wird.
Damit gehen dem Autor der Online-Texte Einnahmen verloren, die ihm aber gesetzlich zustehen.

Bitte beheben Sie dieses Problem!

Diese Nachricht wurde von mir persönlich abgeschickt und lediglich aus einer Vorlage generiert.
Wenn der Klick auf den Button keine Mail öffnet, schreiben Sie bitte eine Mail an info@vgwort.de und weisen darauf hin, dass der VG Wort Dienst von datenschutzfreundlichen Browser blockiert wird und dass Online Autoren daher die gesetzlich garantierten Einnahmen verloren gehen.
Vielen Dank,

Ihr Klaus Meffert - Dr. DSGVO Datenschutz-Blog.

PS: Wenn Sie meine Beiträge oder meinen Online Website-Check gut finden, freue ich mich auch über Ihre Spende.
Ausprobieren Online Webseiten-Check sofort das Ergebnis sehen

Konstgjord intelligens: Därför är den kognitiva revolutionen den största revolutionen i mänsklighetens historia

0
Dr. DSGVO Newsletter detected: Extended functionality available
More articles · Website-Checks · Live Offline-AI

Många tror att ChatGPT är bara en förbättring av AI-systemen. Det är grundligt fel. Istället har nyligen ett antal sensationer inträffat som tydligen är okända för de flesta. Jag själv kan till exempel bygga upp flera högpresterande AI-system i snabb takt och låta dem köra på min egen hårdvara utan att behöva någon internetuppkoppling.

Snart

Artikeln svarar på följande frågor:

Vad är AI-revolutionen och i vilken fas den befinner sig?
Svar: AI-revolutionen hänför sig till den snabba utvecklingen och förbättringen av artificiell intelligens, som har djupgående inverkan på mänsklighetens historia. Den är redan fullföljd i det så kallade World Scope 3 av 5, där stegen 4 (materialisering av AI) och 5 (socialisering) ännu inte nåtts.
Hur påverkar AI-revolutionen samhället?
Svar: AI-revolutionen kunde exempelvis leda till att aktiekurser blir så bra förutsägbara att aktiemarknaden i sin nuvarande form upphör att existera.
Vad är några exempel på AI-användningar som författaren själv har utvecklat?
Svar: Författaren har utvecklat ett AI-program för att transkribera ljud från podcast och ett system för att beräkna likheter mellan bilder och texter.
Vad är fördelarna med lokala kognitiva system jämfört med molnbaserade system?
Lokala AI-systemer möjliggör en bättre kontroll och anpassning, minskar rättsliga osäkerheter och dataskyddsproblem och orsakar inga kostnader för tredje part.
Hur har utvecklingen av artificiell intelligens förändrats?
Svars: Utvecklingen av artificiell intelligens har snabbt accelererat, med dagliga nyheter från forskningen och en öppen kultur för utbyte av insikter och källkod.

Viktiga nyckelord:

Konstgjord intelligens, beräkningsförmåga, lagringsstorlek, AI-revolution, modellstorlek, tillgänglighet av medel.

Inledning

AI Revolutionen har inte börjat, eller åtminstone inte börjat. Den är redan fullständigt genomförd, och det gäller för den så kallade World Scope 3 av 5. Den Turing-testen har först (i min mening) nyligen blivit klar, och det är OpenAI's ChatGPT eller liknande intelligenta system (som LLaMA från Meta).

Världsskopa 1 avser stora databaser med text- eller bildsamlingar, skopa 2 hänvisar till massdata från internet. Skopa 3 betyder multi-modala modeller (mer om det nedan). Nästa två steg är ännu inte uppnådda: Skopa 4 är materialiseringen av AI (roboter etc.) och skopa 5 är socialiseringen. Förrän det kommer, kommer nog att gå 10 eller fler år, skulle jag nog tveka till att säga. Ni kommer ändå att uppleva det, så länge ni inte redan är i pension och har ett normalt långt liv kvar.

Vad är AI-revolutionen?

Den artificiella intelligensrevolutionen blev möjlig tack vare den snabba utvecklingen och förbättringarna av kognitiv teknik, som kommit till genom nya matematiska metoder, effektiva algoritmer, programvara och hårdvara. Nya möjligheter är lätt tillgängliga, lokaliserbara och kan anpassas efter egna problemställningar.

Många har ännu inte märkt att omvälvningen av samhällets utveckling på grund av de enorma nya förmågorna hos artificiell intelligens snart är på väg. Det är ingen gissning, utan min övertygelse. Tro det eller ej, så kommer det att ske. Och sannolikt redan i år (2023).

En första överblick: Aktiekurser kommer att vara mycket lätt att förutsäga så bra att varje medlem med en liten summa pengar på kontot nästan utan risker kan spela för att öka sitt kapital. Detta kommer (såsom min naiva antagande) att leda till att aktiemarknaden i sin nuvarande form upphör att existera. Här finns historiska Aktiekurser som CSV-fil. Nyhetsarkiv finns på olika plattformar. Huruvida vi redan har de data som behövs för ett grundmodell… Kanske ännu Väderprognoser och miljöhändelser att lägga till? Vad skulle vi kunna behöva mer?

Jag kan nu själv programmera det jag skriver om aktiemarknaden: ett förutsägelseprogram för aktiekurser, som arbetar i nog aldrig tidigare uppnådd kvalitet, och det är på min egen gamla persondator, som jag köpte för ett milt budgetbelopp för ca 3 år sedan. Man måste ju ge sig till känna lite för att få ihop ett sådant program. Men i alla fall vet jag hur man gör, vilka steg det är och vilka problem som finns att lösa. Problemen som verkar lösbara beror på kvalitativt högkvalitativa massdata. Man måste alltså ha en massa historiska aktiekurser samt ekonomiskheter från förr.

Ett verkligt exempel: Ljudtranskription med AI

Här en riktig provsmakning av vad jag med få resurser precis har programmerat: Stephan Plesnik och jag har nyligen inspelat avsnitt #24 av privacy Deluxe Podcasts. Det handlar om ChatGPT och artificiell intelligens samt farorna även beträffande dataskydd.

Jag har skrivit ett AI-program med källkod och kört det. Som ingång har jag definierat MP3-filen till vår avsnitt 24 i podcasten. Programmet använder ett AI-modell som är optimerat för audiotranskription. Vid transkription försöker man omvandla tal till text. Många använder det för att lägga undertexter på videor med mindre ansträngning än att göra det manuellt.

Här är Ljuduppspelningen, som mitt AI-program har extraherat det talade texten:

Här är obearbetad originalversionen av mitt AI-program för podcastavsnittet (bara "Stephan" istället för "Stefan" har jag bearbetat):

[00:00.000 - 00:12.000] Dataskydd Deluxe, en podcast om dataskydd och IT med Dr. Klaus Meffert och Stephan Plesnik.
[00:12.000 - 00:22.000] Yes, hej och varmt välkommen till privacy Deluxe Podcast. Jag är Stephan Plesnik och bredvid mig är som vanligt Dr. Klaus Meffert. Hejdå Klaus, hur mår du?
Hej Stephan, allt brajar som vanligt. Hoppas det är lika bra hos dig och jag ser fram emot vår samtal.
[00:27.000 - 00:37.000] Yes det är fantastiskt, jag har också allting under kontroll och jag har medvetet formulerat det så. Jag börjar med ett citat och sedan kommer många människor att förstå vad vi pratar om idag.
[00:37.000 - 00:51.000] Detta citat menar att intelligens är förmågan att acceptera sin omgivning. Jag tycker det är en mycket vacker mening, för vi vill idag prata om ett ämne.
[00:51.000 - 01:03.000] Det är faktiskt märkligt att vi inte pratat om detta så länge, nämligen ChatGPT och de rättsliga implikationerna som det medför, särskilt vad gäller privatlivet.
[01:03.000 - 01:15.000] Och förmågan att acceptera sin omgivning skulle ju också innebära att vi i slutändan måste använda vår intelligens för att acceptera att det finns.
[01:15.000 - 01:34.000] Vad är din allmänna uppfattning egentligen till ämnet ChatGPT och dessa framsteg, som vi nu redan har sett i Italien, att det förbjuds på grund av olaglig behandling av personuppgifter?
Yes, och kanske till citatet först. Det kan bara ha sagt en människa som endast talar om mänsklig intelligens, skulle jag säga nu, eftersom ett datorsystem ju är helt ointresserad av sin omgivning.
[01:46.000 - 02:00.000] Och jag påstår att det finns ett test som man kan använda för att avgöra om ett datorsystem har mänsklig intelligens, alltså åtminstone samma förmågor som mänsklig intelligens.
...

Texten är så gott som felfri, även om vi på tal formulerar oss helt annorlunda än i skriftlig text. Dessutom hörs tre talare i podcasten, nämligen Stephan Plesnik, jag och intro-rösten. Även vid intro finns det musik bakom språket. Trots detta kunde min programvara åstadkomma översättningen av språk till text. Med en enkel efterbehandling genom ett statiskt program kan man automatiskt fortsätta att glädda och föra texten närmare mot grammatiskt korrekt text.

Tidsindikatorerna i den ovan nämnda programutgången har också genererats av programmet. En skillnad mellan talarna är även (lätt) möjlig. Jag har bara inte lagt in dem ännu.

Här är resultatet i form av ett dataskyddsvänligt videoklipp, som består av en statisk bild och det automatiskt genererade transkriptet till poddcasten (första 7 minuter, ingen väsentlig efterbearbetning):

Som syns är många krävande uppgifter lösta, bland annat:

  • ""Äh" och några andra fyllord uttaget.
  • Ordbestämmelser igenkända och uttagits bort.
  • Utländska och även engelska begrepp förstås rätt.
  • Samtidigt talande flera talspersoner är inget problem för AI.
  • Flera talare.
  • Även mindre "enkel" ord och uttryck kan identifieras, till exempel "allt är bra".
  • Musik bortfiltrerad osv.

Min budget: 0 euro, Tidshöjd: Mickenrätt (tillräckligt med tid kvar för att programmera en AI till er problemet).

Är ni nu övertygade om att AI har nått ett nivå som aldrig tidigare funnits? Inte bara det: De moderna AI-systemen har ytterligare en rad mycket värdefulla kvalitéer, som gör allt så bråkigt och också intressant.

Artificiell intelligensrevolutionen är över

Naturligtvis kommer det att ske ytterligare utvecklingar. Men en helt enorm och extrem milstolpe har nyligen blivit avklarat på ett positivt sätt.

Artificiell intelligens-revolutionen på nivån till Turing-testet är över. Den som menar att dagens konstgjorda intelligens inte är särskilt revolutionerande, har inte förstått utvecklingen och vet ingenting om hur saken står till.

Ytterligare revolutioner kommer att följa.

Nyligen sändes en talkshow i ZDF (det borde ha varit Maybritt Illner). I den diskuterade Ranga Yogeshwar med Saskia Esken. Jag vill inte uttrycka någon åsikt om politiker, utan bara om Saskia Eskens uttalande om konstig intelligens.

Fröken Esken är datormänniska, precis som jag (om inte denna könsneutrala språkform hade funnits, skulle meningen ha varit missförstådd och kunde då inte antyda att jag hade genomgått en könsbyte). I motsats till Herr Yogeshwar såg fröken Esken inte revolutionen utan hänvisade istället till tidigare (rätt nyligen) framgångar för artificiell intelligens. Med det missförstår hon några av de viktigaste kvaliteterna hos nuvarande ansatser som GPT ("nuvarande" i stället för "nuvarande" skulle inte göra rättvisa åt hastigheten på utvecklingen).

Teknisk nivå

Låt oss börja med något uppenbart som till en början inte har med AI att göra. Som alla vet och utan tvivel accepterar (utom om man är jurist och befinner sig i en konflikt …), kännetecknas moderna datorsystem främst av:

  • Mycket hög prestanda (inklusive stor och snabb huvudminne och arbetsminne).
  • Mycket låg pris: Min första skrivare kostade 1988 mer än 1200 DM och var en 9-nadelskrivare. På samma sätt gällde det med mycket långa hemdatorer, vars exakta pris jag inte längre minns. Mitt modell hade då 4,77 MHz och 2 x 64 kilobyte huvudminne samt ett diskettläsare. Naturligtvis hade den där skivan bara en processor med en processorkärna. Vad en processorkärna är visste man inte ens på den tiden.

Utvecklingen av datorer har nått en punkt där det är möjligt för vem som helst att ha en Superdator under skrivbordet med liten pengar. Eller känner du till en billig utrustning som 8 år sedan kunde transkribera en ljudfil i mycket hög kvalitet?

Utöver det har nätverksanslutningar blivit allt snabbare, både på internet och i intranätet. Bara Vodafone verkar ha missat denna trend, som alla kabelkunder från Vodafone kan bekräfta genom att försöka hålla en videokonferens via denna anslutning.

Huvudminnesstorlekarna exploderar, vilket är av särskild vikt för AI-användningar. Med 32 GB kommer man åtminstone halvvägs när det gäller att träna nya modeller.

Minneskapacitet blir allt tillgängligare och billigare, oavsett om det är huvudminne eller hårddisk eller molnlagring. Bilden har genererats av ett datorprogram.

Hårdkapselminne har också blivit extremt stort och samtidigt billigare. Grundförutsättningen för AI-användningar är massdata. Därför är detta ett väsentligt punkt. Min gamla 2 TB-hårddisk är i alla fall tillräckig för att kunna spara några större datamängder för AI-användningar samtidigt. Nästa skiva kommer då att vara minst 4 TB stor, så att man inte omedelbart får platsproblem igen.

Grafikkort, som ursprungligen (jag antar) var optimerade för reknintensiva och bildstarka datorspel, "happas" att ha den typ av chip som kan utföra AI-berechningar särskilt snabbt. Man menar GPUs. Måttliga spelgrafikkort från Nvidia har 5888 CUDA-kärnor (CUDA = Compute Unified Device Architecture). CUDA-kärnor fungerar precis som CPU-kärnor. Men ni har säkert redan märkt att i CPUs finns det bara ett fåtal kärnor (12 till exempel i redan ganska bra Intel-chip). Nu jämför ni väl antagligen siffrorna 12 och 5888 och funderar över hur mycket snabbare en beräkning då skulle kunna gå?!

Grafikkortprocessorer, CPU-hastigheter, huvudminnesstorlekar, hårddiskutrymme, molnberäkning: Högsta prestation till lägsta pris är grunden för AI-revolutionen.

Här ett exempel på hur lätt grafikprocessorer (GPUs) kan användas istället för datorprocessor (CPUs) i kognitiva anläggningar:

Enhetsplats = 'cuda' om torch.cuda.is_available() annars 'cpu'

Instruktionerna gör följande: Om en grafikkort med AI-förmåga finns tillgängligt används dess miljarder processorkärnor för beräkningarna. Annars används de klenhet 8 eller 12 CPU-kärnorna och du måste vänta lite längre. Resultatet kommer att finnas i ljusets hastighet i det bästa fall och i ljudets hastighet i det sämsta (jämförelsen är inte vetenskapligt belagd, utan ska visa hur långt vi har kommit idag).

Förutom det är molnprogram tillgängliga i mycket hög kvalitet (prestanda, komfort) för ett mycket lågt pris. Molnprogram innebär främst molndatorer. Molnlagring är mindre avsett, även om online lagring inom AI-området ibland har sin giltighet.

Så mycket till teknologin, som alla slags program kan dra nytta av. AI-revolutionen var dock bara möjlig tack vare dessa parametrar. För lite CPU och GPU-kraft förstör varje matematisk modell, som kräver extremt stora resurser. Vem väntar redan idag två dagar på vädervarning för i morgon, för att sedan kunna meddela den övermorgon? Då hellre de vittnarna Jehovas, som är effektivare att meddela (en liten sväng till dataskyddet, eftersom ett EuGH-domstolsutslag säger att vittnarna Jehovas som förkunnare och gudstjänstgemenskap är gemensamma ansvariga för förkunningsföretaget).

Algoritmtyper

Den nuvarande intelligensen efter min mening beskriver funktionen hos det mänskliga hjärnan mycket bra. Hjärnan får en serie av stimuli, nämligen via

  • Ögon
  • Öron
  • Nose
  • Körperkontakt, Haarbewegungen…

Dessa stimuli omformas till analoga signaler. Dessa signaler hanteras i neuronal nätverk i hjärnan mellan neuronerna. För att göra detta används synapser som neuronkopplingar. Synapserna är olika starkt kopplade till neuronerna. Systemet lär sig genom uppfostran av föräldrarna samt återkoppling från miljön. Med hjälp av det sker tankeprocesser, vilka ofta följs av handlingar (språkutgivning, textutgivning, rörelse) Det var nog allt, eller?

Analog fungerar ett KNN (konstgjort neuralt nätverk) respektive den nuvarande AI-teknologin:

  • Stimuleringar kommer in via ingångsdata: texter, bilder, ljudfiler och videofiler
  • Transformator koder dessa signaler i diskreta talserier
  • Dessa data behandlas i ett konstgjort neuralt nätverk
  • Det neurona nätverket genererar en utgång i form av text, språk, bild eller video

Analogin är avgörande. Att AI-systemen inte vet vad deras resultat betyder, låter jag som argument inte gälla. Vem kan visa att människan vet vad resultaten betyder som människan producerar? Om en människa ska förklara ett begrepp pekar han hela tiden på andra begrepp, till dess slutligen det 100:e begreppet igen förklaras med det första. När man vill förstå ett verkligt objekt kan man peka på objektet. Då får datorn snart också dit. När det gäller ett abstrakt objekt kan datorn lika mycket som människan.

Modellstorlek

Ett modell är nästan som att koppla ihop neuroner i en KIs hjärna. Ladda ner ett modell, sedan laddar du ner (oftast specialiserat) hjärnor.

Ju fler anslutningar ett konstgjort hjärna har, desto större chans att det har högre förmågor. Detta skulle man i alla fall kunna tolka naivt utifrån utvecklingen av modellstorlekarna hos GPT.

ChatGPT-2 hade fortfarande 1,5 miljarder parametrar i modellen. En parameter hänvisar (för enkelhetens skull) till konfigurationen av ett neuron, eftersom GPT också bygger på ett neuronalt nät. Version 3 av GPT hade redan 175 miljarder parametrar och var ca 350 GB stor. Speicherstorleken är imponerande, men kan hanteras av vilket billigt notebook som helst. Men det handlar också om att hantera modellen, över vilket högkomplexa beräkningar måste utföras. Det räcker inte att bära hjärnan med sig.

De kommer att hålla med mig om att många nerver är bättre än få. I alla fall stämmer det tendentiellt. Inte för att det var slumpen som gjorde att människan har flest nerver av alla levande varelser (långt Wikipedia) – även elefanten har fler, 250 miljarder nerver. Här är en liten utställning:

LivsformerAntal neuroner
Människa86 miljarder
Gorilla33 miljarder
Macacus rhesus6 miljarder
Katt250 miljoner
Hästskaloppor71 miljoner
Nervceller för utvalt livsform. Source: Wikipedia

Om man tittar noggrannare på saken så kommer intelligensen också från förhållandet mellan storleken av hjärnan till storleken av organismen. Man kunde alltså naivt förklara varför en katt har mindre än 1/3 så många nerver som en schäferhund, men efter min erfarenhet med dessa djur är katten tydligt intelligentare än hunden. Naturligtvis spelar också arten och antalet anslutningar något roll för prestandan hos ett hjärna. Dessutom är kvaliteten, arten och antalet ingångssignaler (ögon, öron, näsa, känsel, hårbewegningar, haptik …) relevant.

Att modellstorleken åtminstone vid AI-modeller förutsätter en ökning av prestandan hos AI, kallas det Power-Law och kan betraktas som givet.

Sammanfatta vi det viktigaste: Människan har 86 miljarder nervceller, GPT-3 har dubbelt så många nervcellförbindelser (och 96 nervskikt) och därmed minst en storleksordning mindre nervceller än vårt hjärna. Låt oss låta det stå utan värdering i luften. Klar är i alla fall att denna enorma mängd inte är så liten att den förhindrar intelligens. Tydligen hade människans hjärna mer tid än känsliga hjärnor att utvecklas. I och med detta borde det vara mindre överraskande att fler nervceller i elektronik ger färre resultat än i naturen. Inte för att tala om Formerligheter.

Jag valde medvetet ordet Modalitäten. För att under AI-revolutionen också prata om multimodala system. Multimodal betyder att inmatningsdata är mångfacetterad. Hittills har AI-system främst handlat om textbearbetning, som exempel. Nu kan – som ni säkert vet – text och bild kombineras. Se Dall-E, Midjourney och andra metoder som från ett textprompt kan skapa ett konstgjort bild i aldrig tidigare uppnådd kvalitet.

Tillgänglighet av medel

Jag har installerat och programmerat ett system som låter mig beräkna likheter mellan bilder och texter. Med det kan jag sedan hitta ut vilka bilder en mus är avbildad på och vilka bilder visar en mus som jaktas av en katt. Dessutom kan jag skapa bilder som förvandlar en textinmatning till bild.

Säkert känner ni till denna historia: Ni berättar för någon om det fantastiska ni uppnått. Därefter säger den andra att han också känner någon som gjort (eller rent av mer) liknande. Härmed vill jag säga: Det ovan nämnda kan jag själv på min dator realisera och behöver inte fråga eller betala någon annan för det. Även en internetuppkoppling behöver jag inte efter att programmet är skapat. Så mycket till ett del av AI-revolutionen!

Jag har tidigare gett ett exempel på ett AI-program som jag själv skapat på min dator. För att köra det behöver jag ingen internetuppkoppling, inget service från Google eller andra och ingen rådgivare (undantaget också ingen skatterådgivare). Detta program kan i högsta kvalitet skapa transkript av mitt podcast (eller andra tyskspråkiga podcasts).

Med den nya AI-teknologin kan jag programmera de bästa AI-systemen på ett ögonblick och få dem att fungera på en skärande billig hårdvara.

""De bästa AI-systemen" är å ena sidan absoluta, å andra sidan relativt sett till förmågorna hos tidigare AI-system som helt och hållet är ojämförbara med nuvarande möjligheter.

Det är tydligt att jag nu kan bygga upp sådana system, programmera dem, förbättra och använda dem lätt. Om ni hade frågat mig för 3 månader sedan skulle jag ha ansett det vara omöjligt.

Hela saken sker väl på en mycket erbärmelig datorutrustning, eftersom min dator är några år gammal och var då redan ganska billig.

Var vänlig och observera att Tyska i internationella sammanhang och forskning starkt underställs engelska. Trots detta kunde jag tydligt och därmed bevisat låta en tyskspråkig ljudfil automatiskt översättas till text.

Jag kunde också nyligen bygga en fråga-svar-maskin. Den är inte lika kapabel som GPT-2 eller senare versioner. Det beror dock bara på att jag använt ett litet startmodell. Min hårdvara kan helt enkelt inte hantera det. I morgon ska jag bygga en (lokalt på min dator fungerande) översättare som tar ett tyskt text och gör det till ett engelskt text. Gissa hur länge jag kommer att behöva för den första (mycket bra) versionen? Min gissning är: Få timmar.

Jag försöker sammanfatta: Det har gått snabbt för mig att intellektuellt förstå vissa typer av AI-system, så jag kan använda dem, programmera dem och få dem att fungera på lågkostnadshårdvara för att producera resultat i (för mig) aldrig tidigare skådat kvalitet. Vi pratar om att jag har lyckats uppnå toppresultaten utan några betydande krav, som tidigare kunde uppnås av högst värderade företag och deras hyrdetjänster.

Lokala system, dataskydd

Jag nämner bara till sist att högpresterande system kan köra lokalt på egen hårdvara med hjälp av aktuella AI-algoritmer och -modeller.

Det har flera positiva följder.

Först och främst uppstår inga kostnader hos tredje part. Den som känner till molntjänster vet att det Pay Per Use-modellen också medför sina faror. Ett program som av misstag återkommer till sig själv oändligt många gånger orsakar snabbt och oavsiktliga kostnader på flera tusen euro inom några dagar.

Andra fördelen är att man kan kontrollera och anpassa lokala system. Lokalt betyder också ofta Open Source. Således är kontrollen så stor, som man kunde drömma om förut.

Tredje sak är att god Personuppgiftsskydd på lokala system kan vara möjlig och de juridiska osäkerheterna kan reduceras till noll. Många av er har säkert hört talas om att överföring av personuppgifter till underrättelsestat som USA utan användarens samtycke inte är tillåtet och även med samtycke är det svårbestämt enligt lag.

Utvecklingshastighet och hög tillgänglighet

Dagligen finns det nyheter från forskningen. Vad som tidigare var ren teori har nu ett hårt praktiskt samband.

Nya algoritmer, nya ramverk, nya modeller. Allt det finns nästan varje dag på nytt.

Utvecklingar på marknaden som tidigare tog år tar nu veckor eller några månader. Den nuvarande hastigheten vill jag kalla Ljushastighet. Ni kommer att instämma med mig, att exakt denna hastighet är rätt begrepp för att kunna skriva ett program på kortast tid som tidigare tagit år och bara var möjligt om ni hade mycket personal och pengar.

Utvecklingen går i lawinartade snabbhet. Det beror också på den öppna kulturen inom AI-scenen. Kunskap delas, även källkod. Förr delades även källkod, men det var då sällan relevant. Nu räcker en rad kod för att förändra världen.

Öppet tillgängliga är algoritmer, ramverk, beräkningsförmåga, APIs, hjälpmedel, enorma datamängder och modeller. Även om det tidigare borde ha varit så: Inget spännande intresserar naturligtvis få människor.

Grå box med AI-föda

En vit box är ett system som kan justeras på vilket sätt som helst. En svart box är ett system som inte alls kan anpassas.

En grå box (eller Grey Box) är ett mellanting. Systemet kan anpassas på låg nivå. Så kan ett AI-system lätt ändras, uppdateras, omformuleras och förbättras.

Den halvdyniska boxen som synonym för mycket anpassningsbara och lättanvända mjukvarusystem. Eftersom detta bild av ett datorprogram skapades, är boxen (tyvärr) gjord av grå betong 😉

Det löser många problem som man har med färdiga system. Å andra sidan är helt öppna system för komplexa. Man måste sysselsätta sig mycket intensivt med det innan systemet skapar ett individuellt värde.

Helt annorlunda är ett gray box-system som jag tror finns i dagens kisystem. Man kan börja med en black box och om man behöver göra den till en gray box. Om man har tillräckligt med beräkningskraft och data kan man faktiskt skapa en white box. Det går inte bättre.

Hur roligt är det nu?

Laddningsbart huvud

Låt oss hålla det kort genom att jag ger ett illustrativt exempel på vad AI varit och vad den är nu.

AI var "förut" analog till när du inte vet något om japanska och köper en handbok för att lära dig japanska, bor i landet i tre år och sedan kan du prata japanska rätt bra.

Früher“ betydde begreppet „idag“ en tidsperiod från nutiden till några år tillbaka i tiden. Just nu betyder "idag" en tidrymd från idag (detta ögonblick!) till några veckor eller månader tillbaka i tiden. Nuvarande betyder "tidigare" en period som någon gång i förra eller detta år upphörde.

Den som inte förstår det är inte dum, utan vet helt enkelt för lite om artificiell intelligens.

AI är nu analogt som om ni laddar ner Sprachcentret från ett japans huvud, lägger in det i ert eget huvud (dator) och sedan kan ni prata japanisk mycket bra.

Tror ni mig nu att en AI-revolution redan har skett?

Sammandrag

Om du fortfarande inte tror på AI-revolutionen, så läs min artikel igen och den här gången rätt. Eller skicka mig ett verkligt problem från ditt företag som du vill ha löst. Det borde dock handla om ett textbearbetningsproblem eftersom jag känner till AI-teknologier relativt bra, men inte vill avvika för mycket. Men jag kan ändå berätta hur bildanalysen numera går till.

Det är idealiskt om ni inte tror på AI-revolutionen. För det ökar min Konkurrensfördelning och det kommer att bli lättare för er att ta del av min rådgivning.

Under de senaste dagarna har jag inte främst skrivit om Personuppgiftsskydd, utan om artificiell intelligens. Detta är redan ett tydligt tecken på att AI-revolutionen är här. I alla fall har jag insett att vi vid många AI-användningar inte har något dataskyddsuppdrag. Med en del innovativa tillvägagångssätt kan man undvika juridiska problem.

En råd till alla som har med språk-, text- eller bildbehandling att göra, alltså designers, översättare och författare: Överväg om ni ska ändra ert affärsmodell och era framtidsutsikter. Sök efter nya eller ytterligare aktiviteter eller skärpa er affärsmodell (”Vad vill kunderna av er, vad en dator inte kan?”). Innan ni skärper er affärsmodell ska ni fundera över om ni vet vad en dator nu är kapabel att göra och hur det kommer att se ut i ett månad.

Sammanfattning

Denna artikel har sammanfattats och lätt bearbetats av en AI för er räkning:

Konstig intelligens och dataskydd är viktiga ämnen i dagens tid. Den konstiga intelligensenrevolutionen är på gång. Med system som OpenAIs ChatGPT och LLaMA från Meta har betydande framsteg uppnåtts, vilka klarar Turingtestet. Utvecklingen av AI-system sker snabbt framåt och möjliggör att komplexa uppgifter kan lösas.

Artikeln ger en inblick i de möjligheter som AI-systemer erbjuder, till exempel förutsägelse av aktiekurser, transkription av ljudinspelningar och analys av bilder och text.

Tillgängligheten av kraftfull hårdvara och molnbaserade program till låga priser har accelererat utvecklingen av AI-system. AI-system kan köra lokal på egen hårdvara, vilket ger skydd för integritet och kontroll. Den öppna kulturen inom AI-scenen främjar informationsutbyte, algoritmer och källkod, vilket ytterligare accelererar utvecklingen.

Artificiell intelligensrevolutionen påverkar även yrken som designers, översättare och författare. Företagsmodeller bör övervägas för att fokusera på färdigheter som en dator inte kan erbjuda.

Sammanfattning i korthet:

Artificiell intelligensrevolutionen är konkret och har potential att förändra mänsklighetens historia grundligt. Med utvecklingen av system som ChatGPT från OpenAI och LLaMA från Meta har betydande framsteg uppnåtts, som kunde klara Turingtestet. Dessa system är i stånd att hantera komplexa uppgifter såsom text- och bildbehandling, språkigenkänning och -översättning.

About the author on dr-dsgvo.de
My name is Klaus Meffert. I have a doctorate in computer science and have been working professionally and practically with information technology for over 30 years. I also work as an expert in IT & data protection. I achieve my results by looking at technology and law. This seems absolutely essential to me when it comes to digital data protection. My company, IT Logic GmbH, also offers consulting and development of optimized and secure AI solutions.

Konstgjord intelligens: Personuppgifter i kognitiva modeller