Il primo vero exploit colpisce l’intelligenza artificiale di Copilot al fine di rubare date sensibili all’insaputa degli utenti.

15 GENNAIO 2026 | Dopo il precedente report, i ricercatori hanno scoperto un nuovo tipo di attacco denominato “Reprompt” che prende di mira gli utenti infiltrandosi nella chat per inviare comandi ed esfiltrare dati sensibili. A differenza del precedente questa tecnica sfrutta un collegamento internet di Copilot condiviso via email per nascondere un prompt dannoso. Copilot svolge le azioni richieste e condivide informazioni personali a insaputa degli utenti. Fortunatamente sembrerebbe che dopo le segnalazioni dei ricercatori Microsoft abbia corretto questa falla. Potete vedere questa tecnica in azione nel video qui in alto.

L’AI di Copilot abusata per rubare dati

I ricercatori di sicurezza hanno scoperto la prima vera falla di Copilot identificata come  CVE-2025-32711 e soprannominata “EchoLeak”. Si tratta di una vulnerabilità del modello LLM utilizzato dall’assistente AI integrato in Microsoft 365 negli applicativi di Office come Word, Excel, Outlook e Teams che consente l’esfiltrazione di dati in maniera silenziosa senza l’interazione degli utenti.

Come potete vedere tramite un prompt inviato via email l’AI legge il messaggio e riceve istruzioni di estrarre e divulgare dati sensibili senza destare sospetti o mettere in allerta i sistemi di sicurezza.

Fortunatamente Microsoft ha già corretto questa falla a maggio con un aggiornamento via server e non dovrebbero esserci stati casi di sfruttamento noti.

Che ne pensate di questa vicenda? Vi fidate dei sistemi di protezione di Microsoft? Fatecelo sapere nei commenti.

Articolo di Windows Blog Italia
Fonte | AIM