Microsoft har meddelat att en bugg, känd som CW1226324, har upptäckts i deras AI-assistent, Microsoft 365 Copilot. Buggen, som identifierades den 21 januari, gör att Copilot kan läsa och sammanfatta mejl med känslig information.
Problemet uppstår eftersom Copilot ignorerar de känslighetsetiketter som många företag och organisationer använder för att skydda sin information. Enligt rapporter från Bleeping Computer har en lösning på problemet rullats ut i början av februari, men det kan ta tid innan den är tillgänglig för alla användare.
Det är oklart hur många användare som påverkas av denna bugg, då exakt siffra ej specificerad i rapporteringen. Microsoft arbetar på att åtgärda problemet och uppmanar användare att vara medvetna om riskerna.
