EchoLeak er en sårbarhed i Microsoft 365 Copilot, som gjorde det muligt for angribere at få adgang til følsomme virksomhedsdata. Det krævede ingen handling fra Copilot-brugerens side. I stedet blev en ondsindet instruktion til Copilot smuglet ind i en e-mail, som offeret kun behøvede at modtage for at blive udsat for sikkerhedsproblemet.
Indledning
Microsofts Copilot er en almen AI, der i nogle aspekter synes at være nyttig, men ofte må betegnes som en fiasko. En simpel test med en meget enkel opgave afslørede det eklatante fiasko af Copilot på funktional niveau.
Det er åbenbart, at Microsoft henter data fra kunder i stor stil uden at føle skam over det. I stedet gør Microsoft dette projekt også offentligt (sandsynligvis på grund af lovgivning).
Relativ ny er den store fare, som virksomheder og privatbrugere af Copilot udsætter sig for. Copilot tilgår næsten alle data på de computere, hvor dette AI-ting er installeret. Gennem Microsoft 365-platformen, hvor Copilot er "smertefrit" integreret, bliver der igen sendt data rundt i verden, f.eks. via Teams-appen.

EchoLeak udnytter dette skarpt. En Copilot-bruger behøvede ikke at gøre en fejl, for at blive påvirket. Det var nok at være en Copilot-bruger, for at blive angrebet og Tab af data udsat til at have været. Microsoft har stille og roligt lukket sikkerhedslejren dæmpet og den blev først fire måneder efter anmeldelse lukket af en "Whistleblower".
Hvad er EchoLeak?
EchoLeak er en Zero-click-sikkerhedssårbarhed. Det vil sige: Du er den dumme, selv om du har gjort intet galt og ikke klikket på noget sted hvor du ikke skulle have klikket. Skylden ligger ikke hos dig, men hos Microsoft 365 Copilot.
Resultatet af EchoLeak er eksfiltrerede data fra dit system. Denne eksfiltrering gør det muligt for uautoriserede personer at få fat i dine data på grund af Copilot og det store Microsoft 365-økosystem. Ingen brugerinteraktion er nødvendig for, at angriberen kan få succes.

Microsoft 365 Copilot-systemer i alle konfigurationer var berørt. Det var muligt at få adgang til data via Word, Excel, PowerPoint, Outlook, Teams, SharePoint-sider, OneDrive-indhold og Microsoft Graph.
Teknisk analyse
EchoLeak-angrebet lykkedes, fordi Copilots sprogmodel (LLM) ikke arbejdede med tilstrækkelige begrænsninger. I stedet blev alle mulige data fra arbejdsstationer, der kørte Copilot, simpelthen ført ind i Microsofts AI og analyseret. På den måde blev troværdige interne data blandet med upålidelige eksterne input i den samme "tankeproces".

Det betød, at en e-mail modtaget fra en angriber (herunder en spam-mail) kunne få Copilot til at få adgang til interne data og videresende disse data til angriberen.
Der er en database, hvor relevante sikkerhedsbrister i software-produkter er opregnet. Den hedder CVE (Common Vulnerabilities and Exposures). Hver sikkerhedsbrist bliver vurderet efter kritikalsitet. 10 er den højeste værdi.

Microsoft 365 Copilot-sårbarheden kaldet EchoLeak fik en score på 9,3, hvilket viser, hvor kritisk det problem var, som Microsoft havde tiet ihjel.
Selv hvis Microsoft havde informeret alle kunder, ville deres handlinger stadig være yderst tvivlsomme. Alene det faktum, at problemet eksisterede, er et tegn på Microsofts mærkelige forståelse af databeskyttelse og datasikkerhed. Fuld adgang til alle data på et system bør i det mindste ikke ske som standard. Måske ville en ordentlig, gennemsigtig og letforståelig anmodning til Microsoft-afhængige kunder have været bedre?
At Microsoft har arbejdet med problemet i hele fire måneder, indtil det håbefuldt er blevet løst, viser en yderligere aspekt af katastrofen. Microsoft kan eller vil ikke arbejde hurtigere på at løse ekstremt store sikkerhedsbrister, der kan truende udgøre eksistensen for virksomheder.
Konklusion
Man kan slukke Copilot. Det ville være det bedste for mange brugere. Der er andre og især bedre systemer, der er væsentligt sikrere og også funktionelt bedre.
Mange delstater og lande går fra Microsoft. Bequemlighed står mange i vejen. Men der bliver flere, der erkender den strukturelle fare, som udspringer af Microsofts Cloud-produkter.
I dag kan man ikke kun købe gode cloud-produkter fra sit eget land, men også udvikle dem med en langt mindre indsats end tidligere. Den indsats, der kræves sammenlignet med for tre år siden, er sandsynligvis 10 gange mindre.
Der vil helt sikkert ikke være flere sikkerhedsproblemer med Microsoft-produkter i fremtiden. Det lover jeg!



My name is Klaus Meffert. I have a doctorate in computer science and have been working professionally and practically with information technology for over 30 years. I also work as an expert in IT & data protection. I achieve my results by looking at technology and law. This seems absolutely essential to me when it comes to digital data protection. My company, IT Logic GmbH, also offers consulting and development of optimized and secure AI solutions.
