Drücke „Enter”, um zum Inhalt zu springen.
Hinweis zu diesem Datenschutz-Blog:
Anscheinend verwenden Sie einen Werbeblocker wie uBlock Origin oder Ghostery, oder einen Browser, der bestimmte Dienste blockiert.
Leider wird dadurch auch der Dienst von VG Wort blockiert. Online-Autoren haben einen gesetzlichen Anspruch auf eine Vergütung, wenn ihre Beiträge oft genug aufgerufen wurden. Um dies zu messen, muss vom Autor ein Dienst der VG Wort eingebunden werden. Ohne diesen Dienst geht der gesetzliche Anspruch für den Autor verloren.

Ich wäre Ihnen sehr verbunden, wenn Sie sich bei der VG Wort darüber beschweren, dass deren Dienst anscheinend so ausgeprägt ist, dass er von manchen als blockierungswürdig eingestuft wird. Dies führt ggf. dazu, dass ich Beiträge kostenpflichtig gestalten muss.

Durch Klick auf folgenden Button wird eine Mailvorlage geladen, die Sie inhaltlich gerne anpassen und an die VG Wort abschicken können.

Nachricht an VG WortMailtext anzeigen

Betreff: Datenschutzprobleme mit dem VG Wort Dienst(METIS)
Guten Tag,

als Besucher des Datenschutz-Blogs Dr. DSGVO ist mir aufgefallen, dass der VG Wort Dienst durch datenschutzfreundliche Browser (Brave, Mullvad...) sowie Werbeblocker (uBlock, Ghostery...) blockiert wird.
Damit gehen dem Autor der Online-Texte Einnahmen verloren, die ihm aber gesetzlich zustehen.

Bitte beheben Sie dieses Problem!

Diese Nachricht wurde von mir persönlich abgeschickt und lediglich aus einer Vorlage generiert.
Wenn der Klick auf den Button keine Mail öffnet, schreiben Sie bitte eine Mail an info@vgwort.de und weisen darauf hin, dass der VG Wort Dienst von datenschutzfreundlichen Browser blockiert wird und dass Online Autoren daher die gesetzlich garantierten Einnahmen verloren gehen.
Vielen Dank,

Ihr Klaus Meffert - Dr. DSGVO Datenschutz-Blog.

PS: Wenn Sie meine Beiträge oder meinen Online Website-Check gut finden, freue ich mich auch über Ihre Spende.
Ausprobieren Online Webseiten-Check sofort das Ergebnis sehen

DeepSeek: AI-revolutionen fra Kina også som en sikker variant

0
Dr. DSGVO Newsletter detected: Extended functionality available
More articles · Website-Checks · Live Offline-AI
📄 Artikel som PDF (kun for abonnenter på nyhedsbrevet)
🔒 Premium-Funktion
Der aktuelle Beitrag kann in PDF-Form angesehen und heruntergeladen werden

📊 Download freischalten
Der Download ist nur für Abonnenten des Dr. DSGVO-Newsletters möglich

DeepSeek er både usikker (cloud-appen) og meget sikker (open source-modellen). Dette fokuspapir om DeepSeek, som udspringer af AI-ekspertgruppen i IT Klub Mainz & Rheinhessen, ser på baggrunden for DeepSeek, appen og de forskellige DeepSeek-modeller. Først og fremmest: Enhver virksomhed kan opnå mere med open source AI end med ChatGPT.

Hvad er DeepSeek?

Med "DeepSeek" henvises især til det ekstraordinær sprogmodel R1, der er udgivet af en kinesisk virksomhed ved navn "DeepSeek". AI-språkmodel er også kendt som LLMs, hvilket står for "Large Language Model".

Det, der er muligt med en DeepSeek open source-model, er stort set også muligt med andre udbyderes stærke open source-modeller (også fra Europa).

Med R1 har DeepSeek lykkes at oprette et sprogmodel, der er lige så godt som "ChatGPT". DeepSeek har været i ophidselse, fordi deres app på grund af kvaliteten af R1 brød alle rekorder og fik maksimal opmærksomhed.

Hvad gør DeepSeek så speciel?

På grund af en række fremragende egenskaber har DeepSeek AI-Markedet i ovevægt. Den DeepSeek-App blev hurtigt til den mest nedladede app. Nogle af årsagerne til succesen:

Høj intelligensfaktor

DeepSeek-modeller kan have et meget stort antal neuroner, mens de kun kræver en brøkdel af dem pr. opgave. DeepSeek har også opfundet sofistikerede træningsmetoder.

Mere effektiv træning og responsadfærd

Gennem den selektive aktivering af eksperter reduceres Beregningsindsats betydeligt i forhold til modeller, hvis neurale netværk altid er fuldt aktiverede.

Lavere omkostninger

Gennem den selektive modelarkitektur er Omkostninger for driften betydeligt lavere end ved modeller som ChatGPT fra OpenAI.

Open source og sikker

Hverken kan blive til "OpenAI": DeepSeek-Modelle er frit tilgængelige og kan lokalt driftes. Den lokale version kommer uden nogen dataoverførsel ud. Følgende grafik illustrerer dette:

Billedet viser det grundlæggende princip i en open source-model. Den kan blot downloades som en fil og sender ingen data nogen steder hen. Billedet er skabt med AI-support. (billedet blev automatisk oversat).

Open source AI-modeller kan implanteres i AI-systemer ved blot at downloade en fil. Modellen sender ingen data nogen steder hen. Som en analogi kan man forestille sig en tekstfil, der ikke kan kommunikere med nogen eller noget.

Opskrift på succes udgivet

Som prikken over i'et har DeepSeek afsløret, hvordan alle kan skabe deres egen AI-model, der kan konkurrere med ChatGPT.

Hvad betyder "DeepSeek"?

Udtrykket "DeepSeek" bruges ofte som et synonym for forskellige udtryk, der har forskellige betydninger:

Term Meaning Properties
DeepSeek Chinese company

AI recipe given away, startup?, strokes of genius

DeepSeek R1

Powerful language model

Open source, highly powerful, best data security

DeepSeek App

Application for smartphones

No data security, vaporized the stock market, based on R1

Student models

Smart LLMs with compact size

Open source, best data security, R1 was the teacher

Er DeepSeek sikker at bruge?

App til smartphones (cloud-version)

DeepSeek-appen anses for at være ekstremt usikker. Den bør generelt ikke bruges, ikke engang til rent private formål.

Open-Source Varianten

DeepSeeks open source-modeller, inklusive de praktiske destillatmodeller, kan downloades og betjenes helt lokalt/autonomt på din egen hardware. Som følge heraf tilbyder de fuldstændig datasikkerhed. Dataoverførsel til tredjeparter kan udelukkes. Det betyder, at DeepSeeks AI-modeller er mere sikre i open source-versionen end cloud-løsninger som f.eks. dem fra OpenAI eller Microsoft.

Opbevaret viden

En enorm mængde viden om verden lagres i alle AI-modeller via træningsdata. DeepSeek, et kinesisk firma, fordrejede nogle fakta af politiske årsager og lagrede dem på en tvivlsom måde i flagskibsmodellen R1, der tilbydes. Der findes nu modeller, som har rettet op på dette.

I tilfælde af AI-applikationer, der søger efter virksomhedsviden, favoriseres virksomhedsviden generelt i udbredte processer som RAG, og det kinesiske imperativ undertrykkes og gøres uskadeligt.

What bedeutet „Mixture of Experts“?

Mixture of Experts" (MoE) er en arkitektur for neurale netværk, hvor flere specialiserede undernetværk ("eksperterne") eksisterer parallelt, mens en routing-mekanisme ("gatekeeperen") beslutter, hvilke eksperter der skal aktiveres til den aktuelle opgave.

Transformator-tilgangen

Transformer er en udbredt AI-tilgang til "intelligente" modeller. I konventionelle Transformer-modeller bruges alle modellens parametre til hver forespørgsel. MoE-modeller opdeler derimod deres kapacitet i flere specialiserede undernet, som hver især er optimeret til specifikke typer input eller opgaver.

Optimeret arkitektur

Når en MoE-model modtager et input, bruger den først en router (også kendt som et "gating-netværk"). Routeren beslutter, hvilke af de tilgængelige eksperter der er bedst egnet til denne specifikke opgave. Typisk aktiveres kun en eller to eksperter pr. token, mens de andre forbliver inaktive.

Andre MoE-modeller

DeepSeek opfandt ikke MoE-tilgangen (men den skabte andre innovationer). For eksempel leverede det franske firma Mistral en model med denne arkitektur i slutningen af 2023.

Hvordan er DeepSeek R1 opbygget?

DeepSeek-modeller behandler input ved kun at aktivere nogle få dele af den elektroniske hjerne – de såkaldte eksperter – afhængigt af det spørgsmål, der stilles.

Skematisk fremstilling af en Mixture-of-Experts-arkitektur. Routeren tildeler input
til de tilsvarende eksperter. Diagrammet blev genereret med AI-support. (billedet blev automatisk oversat).

Denne arkitektur giver flere væsentlige fordele i forhold til konventionelle modeller med en tæt struktur og forklarer, hvorfor MoE-modeller som DeepSeek-MoE kan være meget kraftfulde med en forholdsvis lille computerindsats. Princippet kan sammenlignes med den menneskelige hjerne: Når man taler, bruges talecentret overvejende, og andre dele er næsten ikke eller slet ikke aktive.

Vigtige komponenter i en MoE-model

MoE-modeller som DeepSeek R1 bruger følgende nyskabelser:

  1. Router-netværk: Afgører, hvilke AI-eksperter skal være aktive for hvilken del af indtalen (Token).
  2. Ekspertnetværk: Specialiserede neurale netværk, der hverken er trænede til bestemte opgaver.
  3. Ekspertvægte: De af routeren beregnede vægt, der bestemmer, hvor meget hver ekspert bidrager til slutresultatet.
  4. Vægtet sum: Sammenlæg udgifterne fra forskellige eksperter baseret på de af routeren tildelede vægt.

Opsummeret

  • Open source AI-modeller bliver bedre og mere effektive.
  • Modeller som DeepSeek R1 kan betjenes med billig hardware.
  • Lokale implementeringer forbedrer kvaliteten af resultaterne og sparer omkostninger, når de bruges mere intensivt.
  • DeepSeek-appen (Cloud) bør ikke bruges under nogen omstændigheder.
  • Instruktionerne til at skabe "ChatGPT 2.0" er offentligt tilgængelige og gratis at bruge.
  • Open source-modeller skaber uafhængighed af cloud-tjenester og tredjepartsapps.

Om IT-klubbens AI-ekspertgruppe

IT-klubben kan demonstrere koncentreret IT-ekspertise. AI-ekspertgruppen yder støtte med praktiske tilbud og anbefalinger om tekniske og juridiske aspekter. Fokus er på skræddersyede løsninger til intelligente AI-assistenter og målrettet videreuddannelse.

Om IT-klubben

IT Klub Mainz & Rheinhessen blev grundlagt med det formål at repræsentere branchen for virksomheder i regionen. Som netværk tilbyder IT-Klub sine medlemmer vidensoverførsel, videreuddannelse, fremme af unge talenter og markedsføring af stedet.


Randnotiz

Denne artikel blev oprettet ved hjælp af AI som et uddrag fra PDF'en (men ikke kun med AI).

Tekstuddraget til dette indlæg, som kun søgemaskiner kan se, kaldes et "excerpt". Det blev også skabt ved hjælp af AI.

Billedet til artiklen blev genereret med AI. De to diagrammer blev også genereret med AI-support.

PDF'en til download blev, bortset fra indholdet, igen skabt ved hjælp af AI:

Billedet blev automatisk oversat.

Denne mini-illustration "AI-assisteret skabelse" blev også genereret med AI. Det er langsomt ved at blive kedeligt (men på en positiv måde!) …

Alle, der taler om AI og tilbyder AI-rådgivning og AI-løsninger, bør også selv bruge AI. Det er præcis, hvad der sker her. Flere eksempler vil følge i fremtidige artikler, f.eks. den meget effektive generering af programkode af AI-assistenter (AI-programmering).

About the author on dr-dsgvo.de
My name is Klaus Meffert. I have a doctorate in computer science and have been working professionally and practically with information technology for over 30 years. I also work as an expert in IT & data protection. I achieve my results by looking at technology and law. This seems absolutely essential to me when it comes to digital data protection. My company, IT Logic GmbH, also offers consulting and development of optimized and secure AI solutions.

Google: Datagiganten og dens indflydelse på reklamer og privatlivets fred