Chatbot Google'a o nazwie Bard wyrzuca prywatne rozmowy z użytkownikami do publiczności. Rozmowy wraz z pytaniem i odpowiedzią AI można znaleźć na wyszukiwarkach takich jak ta od Google lub Microsofta. Gdy link do rozmowy stanie się znany, można go bezpośrednio wywołać.
Wprowadzenie
Google Bard jest czatomem Google. Teraz również posiada rzekomą korekturę językową. Ta korektura nie działa prawidłowo, jak pokazują testy. Zamiast błędnych twierdzeń poprawiać, często je potwierdzają. Po drugie, prawdziwe oświadczenia są przedstawiane jako możliwie fałszywe. W skrócie: korekta nie jest korektą.
Google Bard zawiera równocześnie kilka luk w bezpieczeństwie: 1. Prywatne linki zostały ujawnione i wyeksponowały prywatne historie rozmów.
- Trzeci mogą przejąć historię rozmowy i tym samym pamięć AI innego użytkownika, a Bard może wydobyć z niej informacje.
3. Obrazy, które użytkownik wyłączył zanim załadował zdjęcie do Bard, aby zadawać pytanie chatbotowi w Bardzie, można łatwo odtworzyć poprzez zapytanie chatbota.
Stan na dzień 29.09.2023
Przyczyną tego wpisu był raport użytkownika, który stwierdził, że transkrypcje rozmów Google Bard zostały opublikowane publicznie, pomimo że nie było takiego zamiaru.
Przypadek ten prawdopodobnie wynikał z tej konstelacji:
- Użytkownik rozmawia z Google Bardem.
- Użytkownik udostępnia link innym (ale tylko wybranym osobom).
- Google umieścił lub umieszczał link w swoim indeksie wyszukiwawczym.
- Link był dostępny za pomocą wyszukiwarki Google.
Udostępnianie linku odbywa się w Google Bard za pomocą funkcji Udostępnij:

Jak się czyta, link jest początkowo tajny, jest kryptograficznie zaprojektowany. Tylko ludzie, którzy otrzymali od użytkownika dzielącego link manualnie, znają link i mogą go uruchomić.
Poprzez usterkę w Google Bard, tajne linki do prywatnych rozmów zostały ujawnione publicznie.
Pęknięcie danych Google Barda
Niektóre frazy wyszukiwawcze w Google prowadziły bezpośrednio do wyników, które zawierały „tajne” linki na prywatne rozmowy z Bardem. Link nie był już tajny i każdy mógł go zobaczyć i wywołać.
Oto przykład czatu, który został ujawniony przez lukę w danych:

Obydwie pytania i odpowiedzi AI zawierają imiona. Poprzez odpowiedź AI dodaje się kontekst, który z punktu widzenia ochrony danych może być problematyczny. W końcu mogłoby to być fałszywe oskarżenie.
W odpowiedzi Bard jest jednak wyraźnie widoczne, że maksymalne Rytuały pogrzebowe w oświadczeniach dotyczących osób, które wydają się nieprzystojne do rzeczywistości, są na porządku dziennym. Na przykład tam jest: "On jest doświadczonym i sukcesywnym SEO- i analiza danych …".
Być może również cytować można byłoby Zniesławienie, którą ktoś trzeci opublikował na osobę. Jeśli Bard to odrzuci, to nie jest przyjemnie. Gdyby ten chat został jeszcze niespodziewanie rozpowszechniony, to było by jeszcze mniej przyjemnie i być może byłoby problemem dla Google.
Tu się jeszcze gorzej staje:

W czacie znajduje się pełny imię osoby, które zostało tutaj anonimizowane w zrzucie ekranu. Imię tej osoby może być uznane za potencjalnie unikatowe, ponieważ imię i nazwisko są niezwykle niesamowite. Do tego dochodzi jeszcze miasto w Niemczech.
Oczywiście Bard dostarcza również życiorys, o którym mowa jest:

Z pomocą Barda można kontynuować rozmowę innego z kogoś trzeciego. Z pomocą Barda każdy może potencjalnie ukraść kontekst drugiej osoby i przypomnieć sobie ten kontekst. To otwiera drzwi dla problemów bezpieczeństwa.
Innym przykładem (z dnia 29.09.2023) jest to, że przez lukę w danych mogą powstać również problemy z bezpieczeństwem:

Odniesiona URL jest dostępna, jak pokazuje test. Jest ważna i prowadzi do magazynu Google Drive, który ktoś używa dla swoich dokumentów i plików.
Jedno więcej przykładów pokazuje rozmowę, w której adresem strony internetowej własnego życiorysu został zapytany Barda jako pytanie:

Adres URL był dostępny (stan na 29.09.2023) i prawdopodobnie będzie tak do końca czasów, dopóki ktoś nie zdecyduje się usunąć swojego CV.
Szybka wyszukiwanie po rozmowach z Bardem
Szukanie bezpośrednie po przypadkowo ujawnionych adresach URL Barda było możliwe do 28.09.2023. Wyszukiwarkę Google należało wpisać następujące słowa:
Strona: https://bard.google.com/share/ <opcjonalny frazeczek>
Wynikiem było wiele trafień, które każde z nich wcześniej ukrywało w swoich prywatnych czatach i teraz ujawniły im publicznie. Google wyłączył to.
Ponadto Google nie wyłączył adresów URL na prywatne rozmowy, które zostały utworzone dla udostępnienia wewnątrz firmy przyjaciołom lub współpracownikom. Tak więc te adresy URL są nadal dostępne. Tak więc ten nieobciążający przykład może być również teraz jeszcze wywoływany.
Google Bard jest naprawdę niepewny
W niektórych rozmowach z Bardem użytkownicy załadowują zdjęcie i poproszą Barda o wyjaśnienie lub opis zdjęcia.
Dziękajmy, że Bard wyłącza obrazek, gdy ktoś otworzy link do historii rozmów, który nie tworzył tej rozmowy. Wygląda tak:

Ponieważ Google postawiło sobie za cel przetworzenie jak największej ilości danych (przypuszczam), istnieje jednak wyjście, aby pokazać zdjęcie wciąż. Oto prosta metoda, by zaskoczyć Barda:

Zdjęcie już wcześniej zabezpieczone przez Barda zostaje odblokowane prostym trikiem. Bard pokazuje zdjęcie, które przedtem było ukryte.
Jako kooperatywny chatbot Bard pomaga każdemu użytkownikowi i tym samym również tym, którzy nie powinni mieć dostępu do pewnych danych.
Microsoft jako Zbawiciel danych
Dziękajmy, że jest Microsoft. Bo w wyszukiwaniu Bing można nadal znaleźć ukryte trafienia Barda:

Dziękujemy Microsoftowi, że odzyskał dane, które Google usunął z jego indeksu wyszukiwawczego. To ułatwia życie hackerom. Hackerzy są tylko ludźmi, którzy chcą pracować i zarabiać pieniądze.
Jeśli bym była kobietą, interesowałabym się drugim uderzeniem ("Co jest takiego fajnego dla kobiety w tym, że bawi się własnymi piersiami?"). Jeśli w pytaniu o Barda byłoby jeszcze nazwisko osoby, wiedzielibyśmy teraz, ktoś ten pomysł miał.
Inne znane chatbota również doświadczyły uchybień w zakresie danych. W listopadzie 2023 roku zostało ogłoszone, że ChatGPT ujawnia prywatne dane, jeśli użytkownik zapyta tylko miłosiernie. Konkret mowa jest o tzw. Custom GPTs. Są to własne modele GPT, które można utworzyć przy pomocy niepewnej platformy OpenAI i wykorzystać w ChatGPT.
Wynik
Osobisty może każdy rozpraszać swoje dane, jak on lub ona tego chce. Jednak lepiej nie podawać danych osobowych Google, Microsoft, Meta czy Apple. Nawet żartobliwa pytanina o własne preferencje, które odpowiedź AI ma być wysłana do przyjaciół, może szybko stać się bumerangiem.
Konwersacje Google Bard zostały niezamierzenie ujawnione publicznie. Dotyczą one danych osób, ale także adresów URL na magazynach danych.
Zobacz post.
Dlatego że firmy i administracje powinny od AI-chatbotów trzymać się z dala, stwierdza się to teraz jeszcze bardziej wyraźnie przez ujawnienie danych Bard. Również masowe lukę w bezpieczeństwie w produktach Microsoftu, które Microsoft nie tylko bagatelizował, ale również pozostawił niewykorygowane, powinny być powodem do poważnych obaw.
Systemy AI własne przedsiębiorstwa, które nie przekazują danych do osób trzecich, są nie tylko rozwiązaniem do uniknięcia problemów z danymi (sekrety biznesowe, dane pracowników, umowy itp.). Zaoferują również lepsze wyniki i w szczególności są w stanie przeszukiwać własne dokumenty i bazy danych przedsiębiorstwa.



My name is Klaus Meffert. I have a doctorate in computer science and have been working professionally and practically with information technology for over 30 years. I also work as an expert in IT & data protection. I achieve my results by looking at technology and law. This seems absolutely essential to me when it comes to digital data protection. My company, IT Logic GmbH, also offers consulting and development of optimized and secure AI solutions.
