Il primo vero exploit colpisce l’intelligenza artificiale di Copilot al fine di rubare date sensibili all’insaputa degli utenti.
L’AI di Copilot abusata per rubare dati
I ricercatori di sicurezza hanno scoperto la prima vera falla di Copilot identificata come CVE-2025-32711 e soprannominata “EchoLeak”. Si tratta di una vulnerabilità del modello LLM utilizzato dall’assistente AI integrato in Microsoft 365 negli applicativi di Office come Word, Excel, Outlook e Teams che consente l’esfiltrazione di dati in maniera silenziosa senza l’interazione degli utenti. Tramite un prompt inviato via email l’AI legge il messaggio e riceve istruzioni di estrarre e divulgare dati sensibili. senza destare sospetti o mettere in allerta i sistemi di sicurezza.
Fortunatamente Microsoft ha già corretto questa falla a maggio con un aggiornamento via server e non dovrebbero esserci stati casi di sfruttamento noti.
Che ne pensate di questa vicenda? Vi fidate dei sistemi di protezione di Microsoft? Fatecelo sapere nei commenti.
Articolo di Windows Blog Italia
Fonte | AIM