EchoLeak är en sårbarhet i Microsoft 365 Copilot som gjorde det möjligt för angripare att komma åt känslig företagsdata. Det krävdes ingen åtgärd från Copilot-användarens sida. Istället smugglades en skadlig instruktion till Copilot in i ett e-postmeddelande som offret bara behövde ta emot för att utsättas för säkerhetsproblemet.
Inledning
Microsofts Copilot är en allmän AI som i vissa aspekter kan vara nyttig, men ofta måste betraktas som ett misslyckande. En enkel test med en mycket enkel uppgift avslöjade det eklatanta misslyckandet av Copilot på funktionsnivå.
Kända är det att Microsoft hämtar upp data från kunder i stora mängder utan att skämmas för det. Istället gör Microsoft detta ärende till en offentlig sak (sannolikt av juridiska skäl).
Relativ nytt är den stora faran, som utgår för företag och privatpersoner från Copilot. Copilot tar tillgång till nästan alla data på datorerna där detta AI-program har installerats. Via Microsoft 365-plattformen, som Copilot är "smärtfritt" integrerad i, skickas uppgifter ut i världen, t.ex. via Teams-appen.

EchoLeak utnyttjar detta skickligt. En Copilot-användare behövde inte göra något fel för att drabbas. Det räckte med att vara en Copilot-användare för att bli angripen och Dataförlust utsätta sig för blivit. Microsoft har tystat ner säkerhetsluckan tystade ner och stängt den endast fyra månader efter rapportering genom en "Whistleblower".
Vad är EchoLeak?
EchoLeak är en Zero-Click-Säkerhetslucka. Det innebär att du är den dumme, även om du inte gjort något fel och aldrig klickat på någonting där du inte borde ha klickat. Skulden ligger inte hos dig utan hos Microsoft 365 Copilot.
Resultatet av EchoLeak är exfiltrerade data från ditt system. Denna exfiltrering gör det möjligt för obehöriga att få tillgång till dina data tack vare Copilot och det fantastiska Microsoft 365-ekosystemet. Ingen användarinteraktion är nödvändig för att angriparen ska lyckas.

Microsoft 365 Copilot-system i alla konfigurationer påverkades. Dataåtkomst var möjlig via Word, Excel, PowerPoint, Outlook, Teams, SharePoint-webbplatser, OneDrive-innehåll och Microsoft Graph.
Teknisk analys
EchoLeak-attacken lyckades eftersom Copilots språkmodell (LLM) inte arbetade med tillräckliga restriktioner. Istället matades all möjlig data från arbetsstationer som körde Copilot helt enkelt in i Microsoft AI och analyserades. På så sätt blandades pålitlig intern data med opålitlig extern input i samma "tankeprocess".

Detta innebar att ett e-postmeddelande från en angripare (inklusive ett skräppostmeddelande) kunde få Copilot att komma åt interna data och vidarebefordra dessa data till angriparen.
Det finns en databas där säkerhetsluckor i viktiga programvaruprodukter är uppräknade. Denna kallas CVE (Common Vulnerabilities and Exposures). Varje säkerhetslucka bedöms efter sin kritiska nivå. 10 är den högsta värden.

Microsoft 365 Copilot-sårbarheten kallad EchoLeak fick en poäng på 9,3, vilket visar hur kritiskt problemet var som Microsoft hade tystat ner.
Även om Microsoft hade informerat alla kunder skulle dess agerande fortfarande vara mycket tveksamt. Själva det faktum att problemet existerade är ett tecken på Microsofts märkliga förståelse för dataskydd och datasäkerhet. Full tillgång till all data på ett system borde åtminstone inte vara standard. Kanske hade det varit bättre med en ordentlig, transparent och lättförståelig förfrågan till Microsoft-beroende kunder?
Att Microsoft har jobbat med problemet i hela fyra månader, innan det hoppas att var löst, visar en ytterligare aspekt av katastrofen. Microsoft kan eller vill inte snabbt lösa extremt stora säkerhetsluckor som kan hota företagsexistens.
Sammandrag
Man kan stänga av Copilot. Det skulle vara det bästa för många användare. Det finns andra och framför allt bättre system som är betydligt säkrare och också funktionellt bättre.
Många delstater och länder går bort från Microsoft. Bekvämligheten står många i vägen. Men det blir allt fler som upptäcker strukturella faran som utgår från Microsofts molnprodukter.
Numera kan man inte bara köpa bra molnprodukter från sitt eget land, utan man kan också utveckla dem med mycket mindre ansträngning än tidigare. Den ansträngning som krävs jämfört med för tre år sedan är förmodligen 10 gånger mindre.
Det kommer definitivt inte att finnas några fler säkerhetsproblem med Microsoft-produkter i framtiden. Det lovar jag!



My name is Klaus Meffert. I have a doctorate in computer science and have been working professionally and practically with information technology for over 30 years. I also work as an expert in IT & data protection. I achieve my results by looking at technology and law. This seems absolutely essential to me when it comes to digital data protection. My company, IT Logic GmbH, also offers consulting and development of optimized and secure AI solutions.
