EchoLeak to luka w Microsoft 365 Copilot, która umożliwiała atakującym dostęp do poufnych danych firmy. Nie było wymagane żadne działanie ze strony użytkownika Copilota. Złośliwa instrukcja do Copilota była raczej przemycana w wiadomości e-mail, którą ofiara musiała tylko otrzymać, aby zostać narażona na problem bezpieczeństwa.
Wprowadzenie
Copilot Microsoft jest ogólną AI, która w niektórych aspektach wydaje się być przydatna, ale często musi być uznana za porażkę. Prosty test z bardzo prostą zadaniem ujawnił eksplozjęporażki Copilota poziomu funkcjonalnego.
Jasne, Microsoft maszyna dużej skali danych z klientów, nie wstydząc się tego. Zamiast tego, Microsoft robi ten plan nawet publicznie (prawdopodobnie z powodu przepisów prawa).
Nowy jest wielki niebezpieczeństwo, z jakim spotykają się firmy i prywatni użytkownicy Copilota. Copilot uzyskuje dostęp do niemal wszystkich danych na komputerach, na których został on zainstalowany. Poprzez platformę Microsoft 365, w której „bezpośrednio“ jest on zintegrowany, dane są wysyłane poza granice kraju, np. za pomocą aplikacji Teams.

EchoLeak wykorzystuje to sprytnie. Użytkownik Copilot nie musiał popełnić błędu, aby zostać dotkniętym. Wystarczyło być użytkownikiem Copilota, aby zostać zaatakowanym i stracić dane. Microsoft milczał o lukę w bezpieczeństwie i zamknął ją dopiero cztery miesiące po zgłoszeniu, dzięki "whistleblowerowi".
Czym jest EchoLeak?
EchoLeak jest Zero-Click Security Leak. To znaczy: Jesteś głupcem, nawet jeśli niczego nie zrobiłeś źle i nigdzie nie kliknięto tam, gdzie nie powinieneś kliknąć. Winne są nie ty, ale Microsoft 365 Copilot.
Wynikiem działania EchoLeak jest eksfiltracja danych z systemu. Ta eksfiltracja umożliwia nieautoryzowanym osobom uzyskanie danych użytkownika dzięki Copilotowi i wspaniałemu ekosystemowi Microsoft 365. Aby atakujący odniósł sukces, nie jest wymagana żadna interakcja ze strony użytkownika.

Problem dotyczył systemów Microsoft 365 Copilot we wszystkich konfiguracjach. Dostęp do danych był możliwy za pośrednictwem programów Word, Excel, PowerPoint, Outlook, Teams, witryn SharePoint, zawartości OneDrive i Microsoft Graph.
Analiza techniczna
Atak EchoLeak powiódł się, ponieważ model językowy Copilot (LLM) nie działał z wystarczającymi ograniczeniami. Zamiast tego wszystkie możliwe dane ze stacji roboczych z uruchomionym Copilotem były po prostu wprowadzane do sztucznej inteligencji Microsoftu i analizowane. W ten sposób wiarygodne dane wewnętrzne zostały zmieszane z niewiarygodnymi danymi zewnętrznymi w tym samym "procesie myślowym".

Oznaczało to, że wiadomość e-mail otrzymana od atakującego (w tym spam) mogła spowodować, że Copilot uzyska dostęp do wewnętrznych danych i przekaże je atakującemu.
Ist jedna baza danych, w której są wymienione lukę bezpieczeństwa produkty oprogramowania istotne. Nazywa się CVE (Common Vulnerabilities and Exposures). Każda luka bezpieczeństwa jest oceniana pod kątem krytyczności. 10 to najwyższa wartość.

Luka w Microsoft 365 Copilot o nazwie EchoLeak otrzymała ocenę 9,3, co pokazuje, jak krytyczny był problem, który Microsoft zatuszował.
Nawet gdyby Microsoft poinformował wszystkich klientów, jego działania nadal byłyby wysoce wątpliwe. Sam fakt, że problem istniał, jest oznaką dziwnego rozumienia przez Microsoft ochrony i bezpieczeństwa danych. Pełny dostęp do wszystkich danych w systemie przynajmniej nie powinien być domyślny. Być może właściwa, przejrzysta i łatwa do zrozumienia prośba do klientów zależnych od Microsoftu byłaby lepsza?
Ze względu na to, że Microsoft pracował przez całe cztery miesiące nad problemem, aż w końcu zostało ono rozwiązane, pokazuje się jeszcze jedną stronę katastrofy. Microsoft nie może lub nie chce szybko rozwiązać bardzo poważnych luk bezpieczeństwa, które mogą zagrozić istnieniu przedsiębiorstw.
Wynik
Można wyłączyć Copilota. To byłoby dla wielu użytkowników najlepszym rozwiązaniem. Istnieją inne i przede wszystkim lepsze systemy, które są znacznie bezpieczniejsze i również funkcjonalnie lepsze.
Wiele krajów i państw odchodzi od Microsoft. Przyjemność stoi wielu na przeszkodzie. Ale coraz więcej osób zaczyna rozpoznać strukturalne niebezpieczeństwo, które wynika z produktów chmurowych firmy Microsoft.
W dzisiejszych czasach świetne produkty w chmurze można nie tylko kupić we własnym kraju, ale także opracować przy znacznie mniejszym wysiłku niż wcześniej. Wysiłek wymagany w porównaniu do sytuacji sprzed trzech lat jest prawdopodobnie 10 razy mniejszy.
W przyszłości na pewno nie będzie więcej problemów z bezpieczeństwem produktów Microsoftu. Obiecuję!



My name is Klaus Meffert. I have a doctorate in computer science and have been working professionally and practically with information technology for over 30 years. I also work as an expert in IT & data protection. I achieve my results by looking at technology and law. This seems absolutely essential to me when it comes to digital data protection. My company, IT Logic GmbH, also offers consulting and development of optimized and secure AI solutions.
