Google-chatboten Bard smider brugerens private chatty i offentligheden. Chatten med spørgsmål og AI-svar kan findes på søgemaskiner som Googles eller Microsofts. Når linket til chatten er kendt, kan det også direkte tilkaldes.
Indledning
Google Bard er en chatbot fra Google. Den venter nu også med en påstået selvkontrol. Selvkontrollen virker dog ikke rigtigt, som tests viser. I stedet for at korrigere fejlede udsagn, bliver de ofte bekræftet. Til gengæld bliver korrekte udsagn i hvert fald fremstillet som muligvis forkerte. Kort sagt: Korrektionen er ikke en korrektion.
Google Bard indeholder flere sikkerhedshuller: Privat links blev offentliggjort og eksponerede private chatlog.
- Kan man overtage chatloggen og dermed den AI's hukommelse til en anden bruger, og så kan man trække informationer ud af Bard fra dens hukommelse.
Status per 29.09.2023
- photos, der en bruger med forhånd har udelukket fra visning ved hjælp af Bard, kan let genopbygges ved at spørge chatboten i Bard omkring billederne.
Grunden til denne artikel var en brugers rapportering. Han opdagede, at samtaler fra Google Bard blev offentliggjort selv om det ikke var meningen.
Sagen måske ud fra denne Stjernebilledet:
- En bruger chatter med Google Bard.
- Brugeren deler linken med andre (men kun med udvalgte personer).
- Google har eller havde linken i sin søgeresultatliste.
- Linken var tilgængelig via Googles søgemaskine.
Deling af en link sker i Google Bard via delingsfunktionen:

Som læseren kan se, er linken først og fremmest hemmelig, han er kryptisk opbygget. Kun mennesker, der modtaget linken manuelt fra den delende bruger, kender linken og kan åbne ham.
Gennem det store dataleak i Google Bard blev de tilbageholdte links på private chatloger offentliggjort.
Googles datalæk
Nogle søgeresultater i Google ledte direkte til sider, der indeholdt de "hemmelige" links til private Chat-logfiler fra Bard. Linken var således ikke længere hemmelig og kunne ses og åbnes af enhver.
Et eksempel på en chatlog, som blev udsat for dette datalejløb:

Så både spørgsmålet og svaret fra AI indeholder en Personnavne. Gennem AI-svaret bliver der tilføjet en kontekst, som kunne være et problem fra Datenschutzsicht. I hvert fald kunne det være falske påstande.
I den Bard-svar bliver her tydeligt, at maksimale Renæssancebevidstgørelser i udtalelser om personer, der frem for virkeligheden synes, er en hverdagssag. Eksempelvis står der: "Han er en erfaren og succesrig SEO- og dataanalytiker …".
Tænkesvaret kunne også være en Smaanmeldelse, som en tredje person har offentliggjort om en person. Hvis Bard ikke svarer, ville det være ubehageligt. Hvis denne chatlog så endnu mere uønsket bliver viderebragt, er det endnu mere ubehageligt og ville sandsynligvis også være et problem for Google.
Det bliver endnu værre her:

Chat'en indeholder en fuldstændig personnavn, der her er anonymiseret til skærmbilledet. Navnet på personen kan betegnes som potentielt unikt, fordi fornavn og efternavn ikke er typiske. Derudover står også byen i Tyskland.
Selvfølgelig leverer Bard også CV'et, der er i spørgsmålet:

Med Bard kan en konversation fortsætte af en tredje person. Med Bard kan potentielt hverken den kontekst til en anden stjæle og spørge Bard om konteksten. Det åbner døre for sikkerhedsproblemer.
Et eksempelvis (fra den 29.09.2023) viser, at også sikkerhedsproblemer kan opstå gennem datalækken:

Den nævnte URL er tilgængelig, som en test viste. Den er gyldig og leder til en Google Drive-lagring, som nogen bruger til sine dokumenter og filer.
Et eksempel viser en chat, hvor URL'en til en egen CV er stillet som spørgsmål til Bard:

URL'en var tilgængelig (sidst opdateret: 29.09.2023) og vil sikkert være det i alle evighed, indtil nogen bestemmer sig for at fjerne sit CV igen.
Direkte søgning efter Bard-Chat
En direkte søgning efter ved tilfælde offentliggjorte Bard-URLs var også mulig frem til 28.09.2023. I Google-søgefeltet skulle blot følgende indtastes:
sted:https://bard.google.com/del/ <valgfri søgeord>
Det resulterede i mange træffere, som hver især tidligere hemmelige chatloger gjorde tilgængelige for offentligheden. Google har tydeligvis lagt dette indhold ned.
Men Google har ikke deaktiveret URL'erne til de private chat-afsnit, der er blevet oprettet for at dele med venner eller kolleger indenfor firmaet. Så er URL'erne stadigvæk tilgængelige. Så kan dette uskyldige eksempel også nu stadigvæk blive åbnet.
Google Bard er virkelig usikker
I nogle chate med Bard laster brugere et billede op og spørger Bard om en forklaring eller beskrivelse af billedet.
Det er godt at Bard fjerner billedet, når nogen åbner en link til chatloggen, som ikke har oprettet chatten. Det ser så ud af:

Da Google har sat sigtet til at behandle så mange data som muligt (gætter jeg), er der dog en udvej, hvorved billedet alligevel kan vises. Her er den simple måde at overliste Bard på:

Det faktisk allerede beskyttede billede bliver afsløret ved en enkel trick. Bard viser det beskyttede billede, der før var skjult.
Som kooperativ chatbot hjælper Bard hver enkelt bruger og dermed også brugere, som ikke har adgang til bestemte data.
Microsoft som redningsmand for dataene
Det er godt at Microsoft eksisterer. For i Bing-søgningen kan man stadig finde de hemmelige Bard-træffere:

Tak Microsoft for at have genskabt de data, som Google har fjernet fra sin søgesinde. Det gør det lettere for hackere. Hackere er også blot mennesker, der arbejder og ønsker at tjene penge.
Hvis jeg var kvinde, ville jeg da også være interesseret i den næste ramte ("Hvad er så godt ved at lege med sine egne mælker?"). Hvis der havde været et personnavn nævnt i spørgsmålet til Bard, ville vi nu vide hvem der havde haft denne tanke.
Andre kendte chatbots har også dataleaks. I november 2023 blev det offentliggjort, at ChatGPT afslører private oplysninger, hvis en bruger blot spørger efter dem. Det drejer sig om såkaldte Custom GPTs. Dette er egne GPT-modeller, som man kan oprette med OpenAIs usikre platform og bruge i ChatGPT.
Konklusion
Privat kan hverken hans eller hendes Datavirksomhed, som han eller hun selv ønsker. Men det er bedre ikke at give personlige oplysninger videre til Google, Microsoft, Meta eller Apple. Slet ikke en vittighed om sine egne interesser, hvis man vil sende AI's svar til venner, kan så hurtigt blive til et Bumerang.
Google Bards samtaler blev uventet offentliggjort. Dermed er persondata og URL'er på datafiler involveret.
Se indlægget.
At selskaber og forvaltninger skal tage afstand fra AI-chatbots, bliver nu endnu tydeligere gennem datalækken i Bard. De store sikkerhedsløb i Microsoft-produkter, som Microsoft ikke blot nedspillede, men også lod uden at rette op på dem, burde give anledning til stor bekymring.
Egne AI-systemer, som ikke overdrager data til tredje part, er ikke kun løsningen på at undgå dataproblemer (forretningshemmeligheder, medarbejderdata, kontrakter …). De leverer også bedre resultater og er i første række i stand til at gennemsejle ejendomsdokumenter og databasesystemer.



My name is Klaus Meffert. I have a doctorate in computer science and have been working professionally and practically with information technology for over 30 years. I also work as an expert in IT & data protection. I achieve my results by looking at technology and law. This seems absolutely essential to me when it comes to digital data protection. My company, IT Logic GmbH, also offers consulting and development of optimized and secure AI solutions.
