Mange mener, at ChatGPT blot er en forbedring af AI-systemer. Det er grundløgigt forkert. I stedet har der nylig været en række sensationelle begivenheder, som de fleste synes at være ukendte med. Jeg selv kan f.eks. opbygge flere højpresterende AI-systemer i løbet af kort tid og få dem til at køre på min egen hardware uden behov for internettet.
Snaresten
Artiklen besvarer følgende spørgsmål:
Hvad er AI-revolutionen og hvilken fase befinder den sig i?
Svaret: AI-revolutionen henviser til den hurtige udvikling og forbedring af kunstig intelligens, der har dybe konsekvenser for menneskehistorien. Den er allerede på niveau 3 af det såkaldte World Scope 5, hvor trin 4 (materialiseringen af AI) og trin 5 (socialiseringen) endnu ikke er nået.
Hvordan påvirker kunstig intelligens-revolutionen samfundet?
Svaret: AI-revolutionen kunne for eksempel føre til, at aktiekurser bliver så godt foreudsagt, at aktiemarkedet i sin nuværende form vil ophøre med at eksistere.
Spørgsmål: Hvilke eksempler på AI-anvendelser har forfatteren selv udviklet?
Svaret: Forfatteren har udviklet et AI-program til audio-transkription af podcasts og et system til beregning af lighed mellem billeder og tekster.
Hvad er fordelene ved lokale AI-systemer i forhold til cloud-baserede systemer?
Lokale AI-systemer gør det muligt at have bedre kontrol og tilpasning, reducerer juridiske usikkerheder og privatlivsproblemer og forårsager ingen omkostninger ved tredjeparter.
Hvad har ændret sig i hastigheden af AI-udviklingen?
Svaret: Udviklingen af AI har accelereret i en lavineartet fart, med daglige nyheder fra forskningen og en åben kultur til udveksling af indsigt og kildekode.
Vigtige nøgleord:
Kunstig intelligens, processevne, lagringskapacitet, AI-revolution, modelstorlede, tilgængelighed af midler.
Indledning
AI Revolutionen har hverken begyndt eller begået sig endnu, men den er allerede fuldstændig afsluttet, og det for det såkaldte Verdensomfang 3 fra 5. Den Turing-test blev første gang (ifølge min mening) nyligt afgjort, og det var af OpenAI's ChatGPT eller også lignende intelligente systemer (som LLaMA fra Meta).
Der World Scope 1 betegner store databases med tekst- eller billedsamlinger, Scope 2 henviser til Massedata fra internettet. Scope 3 mener multi-modale modeller (se nedenfor mere om dette). Endnu ikke nåede er de næste to trin: Scope 4 er materialiseringen af AI (robotter osv.) og Scope 5 er socialiseringen. Til da kommer, vil der nok gå 10 eller flere år, ville jeg selv medgivende antage. I vil dog opleve det, hvis I ikke allerede er i pension og lever gennemsnitligt længe.
Hvad er den kognitive revolution?
Mange har endnu ikke bemærket, at der sker en omvæltning i samfundets udvikling på grund af de enorme nye evner hos kunstig intelligens, som snart skal indtræde. Det er ingen gæt, men min overbevisning. Tro det eller ej, så vil det ske. Og det vil sikkert være i dette år (2023).
En første glimt: Aktiekurser vil være meget let forudsagt, så hverken med en lille penge på kontoen kan næsten uden risiko spille for at øge sin formue. Det vil (så mine naive antagelser) føre til, at aktiemarkedet i dets nuværende form vil ophøre med at eksistere. Her er historiske Aktiekurser som CSV-fil. Nyhedsarkiver findes på forskellige platformer. Hvorfor, da har vi jo allerede de nødvendige data til et grundmodel… Måske også Vejret og miljøbegivenheder at tage med? Hvad kunne vi endnu bruge ([1]) ?
Det, jeg skriver om aktiemarkedet, kan jeg nu selv programmere: Et Fremtidssprogprogram for aktiekurser, der arbejder i endnu aldrig set kvalitet, og det på min egen gamle personlige computer, som jeg købte for et middelbart budget for ca. 3 år siden. En lille smule indsats skal man selv give sig til, hvis man vil have sådan en program. Men i hvert fald ved jeg, hvordan det går til, hvilke trin der er og hvilke problemer der skal løses. Problemerne, som synes løselige, bygger på kvalitetsmassedata. Man ville således skulle have en masse historiske aktiekurser samt økonomiske nyheder fra fortiden.
Eksempel på virkelighed: Lydtranskription med AI
Her er en virkelig prøve af, hvad jeg med få midler netop har programmeret: Stephan Plesnik og jeg har nyligt optaget afsnit #24 af privacy Deluxe Podcasts. Det drejer sig om ChatGPT og Kunstig Intelligenz samt de farer også i forhold til den personlige integritet.
Jeg har skrevet et AI-program med kildekode og ladet det køre. Som indgang har jeg defineret vores MP3-fil fra episode 24 af podcasten. Programmet bruger en AI-model, der er optimeret til audiotranskription. Ved transkription forsøger man at omforme taleudgaven til tekst. Mange bruger det til at tilføje undertitler til videoer uden så meget arbejde som at gøre det manuelt.
Her er lydoplæsningen, som mit AI-program har udtrukket tekst fra, hvad der blev sagt:
Her er den ubearbejdede oprindelige udgave af mit AI-program til podcast-afsnittet (kun "Stephan" i stedet for "Stefan" har jeg bearbejdet):
[00:00.000 - 00:12.000] privacy Deluxe, den podcast om emnet personlige adgang og it med Dr. Klaus Meffert og Stephan Plesnik. [00:12.000 - 00:22.000] Yes, hej og velkommen til privacy Deluxe Podcast. Jeg er Stephan Plesnik og ved siden af mig er som altid Dr. Klaus Meffert. Hej Klaus, hvordan går det med dig? Hej Stephan, alt er godt som altid. Jeg håber også det bedst for dig og jeg ser frem til vores samtale. [00:27.000 - 00:37.000] Yes, det er fantastisk, også hos mig er alt i orden og jeg har bevidst formuleret det sådan. Jeg starter med et citat og derefter vil mange mennesker forstå, hvad vi taler om i dag. [00:37.000 - 00:51.000] Det citerede citat siger, at intelligens er evnen til at acceptere sin omgivelse. Jeg finder det en meget smuk frase, fordi vi gerne vil tale om et emne i dag. [00:51.000 - 01:03.000] Det er faktisk morsomt, at vi ikke har snakket om det i så længe, nemlig ChatGPT og de implikationer, der følger med det både juridisk og især hvad angår privatlivet. [01:03.000 - 01:15.000] Og evnen til at acceptere sin omgivelse ville jo også betyde, at vi i sidste ende må bruge vores intelligens til at acceptere, at det eksisterer. [01:15.000 - 01:34.000] Hva er din generelle mening til emnet ChatGPT og disse nye fremskridt, som vi nu også har set i Italien, hvor det bliver forbudt på grund af ulovlig behandling af personlige oplysninger. Hvordan vurderer du dette? [01:34.000 - 01:46.000] Yes, også måske til citatet først. Det kan kun være en mand sagt, der udelukkende taler om menneskelig intelligens, ville jeg nu sige, fordi et computersystem er jo den omgivelse ret ligeglad med. [01:46.000 - 02:00.000] Og jeg påstår, at der er en test, hvorved man kan fastslå, om et computersystem har menneskelig intelligens, altså mindst samme evne som menneskelig intelligens. ...
Teksten er så godt som fejlfri, selvom vi ved tale formulerer os helt anderledes end i skrevet tekst. Desuden høres tre talere til i podcasten, nemlig Stephan Plesnik, jeg og intro-stemmen. I intro'en ligger endda musik bag stemmen. Trods dette kunne mit program oprette oversættelsen af tale til tekst. Med en enkel efterbehandling ved hjælp af et statisk program kan man automatisk glätte teksten yderligere og bringe den nærmere en grammatisk korrekt tekst.
Tidsindikativer i ovenstående programudstyr er også blevet genereret af programmet. En forskel på talepersonerne kan også (let) gøres. Jeg har bare ikke implementeret det endnu.
Her er resultatet i form af et datenschutzfreundligt video, der består af et statisk billede og det automatisk genererede transskript til podcasten (første 7 minutter, ingen væsentlig efterbehandling):
Som man ser, er mange krævende opgaver blevet løst, herunder:
- ""Äh" og nogle andre fyldestord røget ud.
- Ords gensyn og fjernet.
- Udtryk fra eksotiske og også engelske kilder forstået rigtigt.
- Samtale mellem flere talere er ikke et problem for AI.
- Flere talefører.
- Selv mindre "enkle" ord og udtryk bliver anerkendt, f.eks. "alt godt".
- Musik fjernet etc.
Min budget: 0 kr., Tid til brug: Ikke rigtig (der er nok tid til at skrive en AI til dit problem).
Er det nu klart for jer, at kognitiv it (AI) har nået et niveau, som aldrig før er set. Det er ikke kun det: De moderne AI-systemer besidder yderligere meget værdifulde kvaliteter, der gør hele sagen både brændende og også interessant.
Den AI-revolution er slut
Selvfølgelig vil der ske flere udviklinger. Men en meget væsentlig og ekstremt vigtig milepæl blev nyligt afklaret positivt.
Den kognitive revolution på Turing-niveau er overstået. Den, der mener, at dagens kunstig intelligens ikke er særligt revolutionær, har ikke forstået udviklingen og kender ikke til situationen i det mindste.
Yderligere revolutioner vil følge.
Nålen havde nyligt været i ZDF en talkshow (skulle være Maybritt Illner). I denne stridte Ranga Yogeshwar med Saskia Esken. Jeg vil her ikke udtrykke mening om politikere, men kun hvad angår udtalelserne fra fru Esken vedrørende Kunstig Intellighed.
Frau Esken er datalog, ligesom jeg (hvis ikke denne kønsfrie tale var, ville sætningen være uden forståelsesproblemer og kunne ikke antyde, at jeg havde undergået en kønsskifte). I modsætning til Herr Yogeshwar så Frau Esken ikke revolutionen, men henviste i stedet til tidligere (ret nylige) succeser med kunstig intelligens. Derved overser hun nogle væsentlige kvaliteter ved nutidens tilgange som GPT („i dag“ snarere end „nu“ ville ikke gøre retfærdighed for hastigheden af udviklingen).
Teknisk stand
Lad os begynde med noget, der er åbenlyst og ikke direkte har med AI at gøre. Som hverken jeg eller du (undtagen hvis du er jurist og i en konflikt …), ved og uden tvivl accepterer (modtager) moderne computersystemer først og fremmest to karakteristikker:
- Særlig høj beregningsførmåe (med stor og hurtig fast lagringsplads og hovedminde).
- Virkelig lav pris: Min første printer kostede i 1988 over 1200 DM og var en 9-nadel printer. Analogt gik det med meget langsommelige hjemme-computere, hvis prisen jeg ikke længere husker. Mit model havde dengang 4,77 MHz og 2 x 64 kilobyte hovedminde samt et diskettelåg. Naturligvis havde den gode ting kun en CPU med ét CPU-kern. Hva' en CPU-kern er, vidste man dengang ikke endnu.
Udviklingen af PCs er nået et punkt hvor det er muligt for enhver at have en Supercomputer under skrivebordet med meget lidt penge. Eller kender du en billig hardware, som kunne transkribere en lydfil i meget høj kvalitet før 8 år?
Tilføjeligt er Netværksforbindelser altid blevet hurtigere, både på internettet og i intranettet. Kun Vodafone synes at være uden for denne trend, som hver kabelkunde fra Vodafone vil kunne bekræfte ved at forsøge at afholde en videokonference over denne linje.
Hovedmindegrøßen eksploderer, hvilket er meget vigtigt for AI-anvendelser. Med 32 GB kommer man i det mindste halvt til at nå frem, hvis det drejer sig om at træne nye modeller.

Festplads-lagring er også blevet meget store og samtidig billige. Grundlagene for AI-anvendelser er massedata. Derfor er dette punkt af største betydning. Min gamle 2 TB-festplatte er i hvert fald stor nok til at holde nogle større datamængder til AI-anvendelser på samme tid. Den næste plade vil så være mindst 4 TB stor, hvis man ikke ønsker at få pladsproblemer igen.
Grafikkort, som oprindeligt (jeg gætter) er blevet optimeret til rekenintensive og billedstærke computerspil, bringer "tilfældigvis" den slags chips med, der kan udføre AI-beregninger meget hurtigt. Det drejer sig om GPUs. Middelmådige spilkort fra Nvidia har 5888 CUDA-kerner (CUDA = Compute Unified Device Architecture). CUDA-kerner fungerer på samme måde som CPU-kerner. Dog har du sikkert allerede bemærket, at der kun er få kerner i CPUs (12 eksempelvis i allerede meget gode Intel-chips). Nu sammenlign da blot disse to tal: 12 og 5888, og overvej selv, hvor hurtig en beregning sådan ville kunne foregå!
Grafikkort-procesorer, CPU-hastigheder, hovedmindegrupper, disketoplass, Cloud Computing: Højeste ydeevne til lavest pris, det er grundlaget for AI-revolutionen.
Her et eksempel på, hvor let grafik-kort-procesorer (GPUs) kan bruges i stedet for computerprocesorer (CPUs) i AI-anvendelser:
Enheden = 'cuda', hvis pytorch.cuda.er tilgængelig, ellers 'cpu'
Instruktionen gør følgende: Er der en AI-følsom grafik-kort til rådighed, bliver dets millioner af procesorkerner anvendt til beregningerne. I ellers vil de beskedne 8 eller 12 CPU-kerner være brugt og du skal vente lidt længere. Resultatet vil i det bedste fald være til stede i lysfart og i det værste fald i lyd-fart (den sammenligning er ikke videnskabeligt belastbar, men skal vise hvor langt vi er nået).
Derudover er Cloudanvendelser tilgængelige i meget høj kvalitet (ydeevne, komfort) til en meget lav pris. Cloud Anwendungen betyder først og fremmest Cloud Computing. Cloud Speicher er mindre med det samme meningsområde, selv om online-lagring i AI-området har sin retfærdighed.
Så meget til teknologien, som hver slags anvendelse kan trække fordel af. AI-revolutionen var dog kun mulig på grund af disse parametre. For lidt CPU- og GPU-kraft gør enhver matematisk model umulig, der kræver ekstreme ressourcer. Hvem venter gerne i dag to dage på vejrudsigtelsen for morgen, før den blot kan offentliggøres overmorgen? Så hellere de vidne Jehovas, som er effektivt til at offentliggøre (en lille svævning hen mod privatlivets fred, da en EuGH-afgørelse fastsætter, at vidnene Jehovas som udgivere og trosgemeinschaften er fælles ansvarlige for offentliggørelsens handling).
Algoritmetype
Den nuværende kognitiv computer (AI) efter min mening beskriver funktionen af menneskehovedet meget godt. Hovedet får en række stimuli, nemlig via
- Øjne
- Ører
- Nose
- Körperkontakt, Haarbewegungen…
Disse stimuli bliver omformet til analoge signaler. Disse signaler bliver i neuronale net i hjernen mellem neuroner behandlet. Dertil anvendes synapser som neuroneforbindelser. Synapsene er forskelligt stærkt forbundet med neuroner. Systemet lærer ved opdragelse af forældrene samt feedback fra omverdenen. I anledning heraf finder tankeprocesser sted, hvilket ofte følges af handlinger (sprogudgivelse, tekstudgivelse, bevægelse) Det var egentlig nok, eller?
En analog funktionerer en KNN (kunstigt neuralt netværk) eller den nuværende AI-teknologi:
- Stimuler kommer ind gennem indtastedata: Tekster, billeder, lydfiler, videofiler
- Transformator koder disse signaler til diskrete talrækker
- Dette data bliver behandlet i et kunstigt neuralt netværk
- Det neurale netværk genererer en udgang i form af tekst, sprog, billeder eller video
Analogien er væsentlige. At AI-systemer ikke ved, hvad deres resultater betyder, kan jeg ikke se som et argument. Hvorfor skal vi kræve det af computeren, når mennesker heller ikke ved? Når en mand skal forklare en begreb, henviser han hele tiden til andre begreber, indtil endelig den 100. begreb igen erklærer den første. Når et reelt objekt skal forstås, kan man pege på det. Det vil computeren også kunne lave snart. Når det drejer sig om et abstrakt objekt, kan computeren så meget som mennesket.
Modelstørrelse
Et model er næsten som at forbinde neuroner i en kIs hjerne. Hvis du downloader et model, så downloader du også (ofte specialiseret) hjerne.
Je flere forbindelser et kunstigt hjerne har, des større er chancen for, at det har højere evner. Det mindste kunne man naivt udlede af udviklingen af modelstørrelserne på GPT.
ChatGPT-2 havde stadig 1,5 milliarder parametre i modellen. Et parameter henviser (i overført mening) til konfigurationen af et neuront, fordi GPT også bygger på et neuronalt net. Version 3 af GPT havde allerede 175 milliarder parametre og var ca. 350 GB stor. Speicherpladsstørrelsen er imponerende, men kan også håndteres af enhver billig laptop. Men det handler også om at håndtere modellen, over hvilket jo meget komplekse beregninger foretages. Det går ikke ud på at bære hjernen med sig selv.
De vil være enige med mig, at mange neuroner er bedre end få. I hvert fald gælder det tendentielt. Det er ikke tilfældigt, at mennesket har flest neuroner af alle dyr (læs Wikipedia) . Kun elefanten har flere med 250 milliarder neuroner. Her en udvalg:
| Livsvesen | Antal neuroner |
| Menneske | Ottilie |
| Gorilla | 33 milliarder |
| Macaqueaffe | Seks milliarder |
| Katt | 250 millioner |
| Kanin | 71 millioner |
Når man tager en nærmere tilsigtethed, følger intelligensen også af forholdet mellem størrelsen på hjernen til størrelsen på dyrket. Sådan kunne man naivt forklare, hvorfor en kat har mindre end 1/3 neuroner som et Schäferhund, men efter min erfaring med disse dyr er den meget intelligenter end hunden. Selvfølgelig har også arten og antallet af forbindelser noget at gøre med ydeevnen af en hjernes. Efterlignende er kvaliteten, arten og antallet af indgangssignaler (øjne, ører, næse, følelse, hårbevægelse, haptik …) relevant.
At modellstørrelsen mindst påvirker AI-modellerne ydeevnen af AI, betegnes dette som Power-Law og kan betragtes som givet.
Sammenfatning: Mennesket har 86 milliarder neuroner, GPT-3 har dobbelt så mange neuroneforbindelser (og 96 neuroneskår) og dermed mindst en størrelsesorden flere neuroner end vores hjerne. Lås det nu ligegyldigt i luften. Det er åbenbart klart, at denne enorme mængde ikke er så lille, at den ville forhindre intelligens. Tydeligvis havde menneskehovedet mere tid til at udvikle sig end kunstige hjerne. Derfor overrasker det ikke, at flere neuroner i elektronikken bringer færre resultater end i naturen. Og så er der selvfølgelig Modaliteter.
Ordet Modaliteter har jeg valgt bevidst. For i tiden med AI-revolutionen skal vi også tale om multimodale systemer. Multimodal betyder, at indgangsdataets art er meget forskelligartet. Indtil videre har AI-systemer overvejende kun været optaget af tekstbehandling, som eksempelvis. Nu kan – som mange af jer sikkert ved – tekst og billedindhold kombinere. Se Dall-E, Midjourney og andre metoder, der fra en tekstprompt kan skabe et kunstigt billede i aldrig før set kvalitet.
Tilgængelighed af midler
Jeg har installeret og programmeret et system, hvor jeg kan beregne lighed mellem billeder og tekster. Derved kan jeg finde ud af, hvilke billeder der viser en mus og hvilke billeder der viser en mus, der jagtes af en kat. Jeg kan også generere billeder, der repræsenterer en tekstindgang.
Kender du ikke denne historie: Du fortæller nogen om noget fantastisk, som du har opnået. Så siger den anden, at han også kender nogen, der har gjort det (eller endda noget bedre). Hermed vil jeg sige: Det ovennævnte kan jeg selv på min computer realisere og behøver ikke spørge eller betale nogen andre. Jeg behøver heller ikke en internetforbindelse efter at programmet er blevet oprettet. Så meget til en del af AI-revolutionen!
Yderligere oppe har jeg givet et eksempel på en AI-program, som jeg selv har lavet på min computer. Til at køre det skal jeg ikke have internetsforbindelse, ingen tjeneste fra Google eller andre og ingen rådgiver (undtagen også ingen skatteadvokat). Dette program kan i højeste kvalitet oprette transkriptioner af mine podcasts (eller andre tysksprogede podcasts).
Med den nye AI-teknologi kan jeg programmerer de bedste AI-systemer i sekundens regi og få dem til at køre på en latterlig billig hardware.
""Bedste AI-systemer" er på den ene side absolut, men på den anden side relativ i forhold til de evner tidligere AI-systemer havde, der var fuldstændig usammenlignelige med nutidens muligheder.
Det er åbenbart nu let for mig at bygge sådanne systemer, programmere dem, forbedre og bruge dem. Hvis I havde spurgt mig 3 måneder tilbage, ville jeg have mente det var umuligt.
Det hele finder således sted på en meget erbærmelig hardware, fordi min computer er nogle år gammel og var dengang allerede ret billig.
Vær venlig at bemærke, at Sprog Tysk i det internationale miljø og i forskningen er stærkt underordnet engelsk. Alligevel kunne jeg tydeligt og dermed bekræftet en tysksproget lydfil automatisk oversætte til tekst.
Jeg har også nyligt bygget en spørgsmål-svar-maskine. Den er ikke så kapabel som GPT-2 eller de nyeste versioner. Det skyldes blot, at jeg har brugt et lille udgangsmodel. Min hardware kan simpelthen ikke håndtere det. I morgen bygger jeg en (lokal på min computer kørende) oversætter, der omformer en tysk tekst til engelsk. Gæt, hvor længe jeg vil tage, før jeg har den første (meget gode) version færdig. Min antagelse: Få timer.
Jeg prøver at samle det hele sammen: Det er lykkedes mig i den korteste tid mulig, at fange bestemte typer af AI-systemer intellektuelt så godt, at jeg kan bruge dem, programmere dem og få dem til at køre på lavkostighardware, for at opnå resultater af en kvalitet, som (i det mindste for mig) aldrig før er set. Vi taler her om, at jeg er i stand til at opnå topresultater uden nogen betydningsfulde forudsætninger, der tidligere – hvis overhovedet – kun kunne gøres af milliarddollar-selskaber og deres leasetjenester.
Lokale systemer, privatlivsbeskyttelse
Jeg nævner kun i sidebemærkning, at højeste prestations-systemer på basis af aktuel AI-algoritmer og -modeller kan køre lokal på egen hardware.
Det har flere positive følger.
Først og fremmest opstår ingensomhelst omkostninger til tredje part. Den, der kender Cloud-tjenester, ved, at det Pay Per Use-model også har sine farer med sig. Et program, der af en uheldig tilfælde bliver kaldt op flere gange, kan hurtigt føre til ukendte omkostninger på flere tusinde euro i løbet af få dage.
Andre kan man selv styre og tilpasse lokale systemer. Lokal betyder også ofte åben kildekode. Således er kontrolen så stor, som man først kunne drømme om.
Tredje ting er god Persondataforskyldighed på lokale systemer mulig og de retlige usikkerheder kan reduceres til null. Mange af jer har sikkert allerede hørt om, at overførslen af persondata til geheimdienst-stater som USA uden brugerens samtykke ikke er tilladt og selv med samtykke retligt næsten umulig at styre.
Udviklingshastighed og høj tilgængelighed
Der er hver dag nyheder fra forskningen. Det, som tidligere kun var teori, har nu en hård praksisrelevans.
Ny algoritme, nye frameworks, nye modeller. Alt det kommer næsten hver dag på ny.
Udviklinger på markedet, der tidligere tog år, foregår nu i uger eller få måneder. Den nuværende hastighed ønsker jeg at betegne med Lysehastighed. I vil være enige om, at præcis denne hastighed er den rette betegnelse for at kunne skrive et program på kort tid, der før var blevet til efter år og kun var muligt hvis man havde meget personale og penge.
Udviklingen sker i en lavineagtig fart. Det skyldes også den åbne kultur i AI-scenen. Erkenlser udveksles, også kildekoder. Tidligere blev der også udvekslet kildekoder, men de var blot lidt relevante. Nu kan én linje kode ændre hele verden.
Offentligt tilgængelige er algoritmer, rammer, processevne, APIs, vejledninger, enorme datamængder og modeller. Selv om det også skulle være sådan før: Intet spændende interesserer naturligvis næsten ingen.
Grå boks med AI-næringsbundet jord
En hvid box er et system, der kan tilpasses på alle måder. En sort box er et system, der ikke kan tilpasses i det hele taget.
En Gray Box (eller Grey Box) er et mellemting. Systemet kan tilpas på lav niveau. Således kan en AI-system let ændret, opdateret, overarbejdet og forbedret blive.

Det løser mange problemer, man har med færdige systemer. På den anden side er komplett åbne systemer for komplekse. Man må beskæftige sig meget intensivt, før systemet skaber en individuel nytteværdi.
Et helt andet gray box-system, der ifølge min mening findes i de nuværende AI-systemer. De kan starte med en black box og hvis nødvendigt omforme den til en gray box. Hvis de har nok proceskræfter og data, kan de endda skabe en white box. Det går ikke bedre.
Hvad er det da godt?
Nedlastbart hjerne
Lad os gøre det kort ved at give en illustrativ sammenligning af hvad AI var før og hvad den er nu.
AI var "førhen" analog til, når du ikke ved noget om den japanske sprog og køber en håndbog til at lære japansk, bor i landet i tre år og kan så godt tale japansk.
Früher“ betød, at begrebet „i dag“ omfattede en tidsperiode fra nutiden til få år tilbage i fortiden. Nuværende betyder "i dag" en tidsspange fra i dag (denne øjeblikkelige) til få uger eller måneder tilbage i tiden. Nuværende betyder "tidligere" en tidspunkt, der på et eller andet tidspunkt i det foregående eller dette år sluttede.
Der, der ikke forstår det, er ikke dum, men simpelthen ikke godt nok informeret om kunstig intelligens.
AI er nu analog til, når du downloader Sprachzentrum fra et japansk hoved, laster det ind i dit eget hoved (din computer) og så kan du tale japansk meget godt.
Tro mig nu, at en AI-revolution allerede har fundet sted?
Konklusion
Hvis du stadig ikke tror på AI-revolutionen, så læs min artikel venligst igen og denne gang rigtigt. Eller send mig et reelt problem fra dit firma, som du gerne vil have løst. Det skal være et problem med tekstbehandling, da jeg kender AI-technologier godt nok, men ikke ønsker at gå for langt ud i det. Men jeg kan også fortælle dig, hvordan billedanalyser nu går til.
Idealerweise tror du ikke på den AI-revolution. For det forøger blot min Konkurrencefordel og det bliver nemmere for dig at tage fat på mine rådgivning.
I de seneste dage har jeg ikke primært skrevet om Persondataforskyldighed, men om AI (Kunstig Intelligenz). Derved bliver det allerede tydeligt, at AI-revolutionen er på vej. I hvert fald er jeg blevet bevidst om, at vi ved mange AI-anvendelser ikke har et privacy-problem. Med enkelte innovatieve Vorgehensweisen kan man undgå retlige problemer.
En rådgivning til alle, der har med sprog-, tekst- eller billedbehandling at gøre, altså designere, oversættere, forfattere: Overvej jer selv i forhold til jeres erhvervsmodel og fremtid. Søg efter en ny eller yderligere aktivitet eller skær fjenden af jeres erhvervsmodel („Hvad vil kunderne have fra jer, hvad en computer ikke kan?“). Inden I skærer fjenden af jeres erhvervsmodel, overvej selv om I ved, hvad en computer nu netop er i stand til at gøre og hvordan det nok vil se ud i et måned.
Sammenfatning
Dette indlæg er blevet sammenfattet og kun let bearbejdet af en AI tilbageholdende:
Kunstig intelligens (AI) og privatlivssikkerhed er vigtige emner i dagens tid. AI-revolutionen er i fuld gang. Med systemer som OpenAIs ChatGPT og LLaMA fra Meta er der blevet opnået betydelige fremskridt, der overholder Turing-testen. Udviklingen af AI-systemer sker hurtigt fremad og gør det muligt at løse komplekse opgaver.
Bidraget giver en indsigt i mulighederne, som AI-systemer tilbyder, såsom forudsætning af aktiekurser, transkription af lydaufzeichninger og analyse af billeder og tekster.
Tilgængeligheden af kraftfuld hardware og cloud-applikationer til lavere priser har accelereret udviklingen af AI-systemer. AI-systemer kan køres lokalt på egen hardware, hvilket giver beskyttelse af personlige oplysninger og kontrol. Den åbne kultur i AI-scenen fremmer udveksling af indsigt, algoritmer og kildekod, hvilket accelererer udviklingen yderligere.
Den kunstige revolution har også indflydelse på erhverv som designer, oversættere og forfattere. Forretningsmodeller skal overvejes, så de fokuserer på evner, der en computer ikke kan tilbyde.
Korte sammenfattelse:
Den kunstige intelligens-revolution er virkelig til stede og har potentialet til at ændre menneskehistorien grundigt. Med udviklingen af systemer som ChatGPT fra OpenAI og LLaMA fra Meta er der blevet gjort betydelige fremskridt, der kunne bestå Turing-testen. Disse systemer kan klare komplekse opgaver såsom tekst- og billedbehandling, taleigenkendelse og -oversættelse.



My name is Klaus Meffert. I have a doctorate in computer science and have been working professionally and practically with information technology for over 30 years. I also work as an expert in IT & data protection. I achieve my results by looking at technology and law. This seems absolutely essential to me when it comes to digital data protection. My company, IT Logic GmbH, also offers consulting and development of optimized and secure AI solutions.
