Il primo vero exploit colpisce l’intelligenza artificiale di Copilot al fine di rubare date sensibili all’insaputa degli utenti.

16 FEBBRAIO 2026 | Secondo un ulteriore report di Microsoft una nuova tecnica coinvolge la funzione Memoria dell’AI, con una sorta di “avvelenamento” che manipola l’AI attraverso dei prompt da ricordare influenzandone le risposte ai danni degli utenti. Questa tecnica può rilevarsi particolarmente pericolosa nel caso in cui una fonte data come buona nella memoria si rivela invece essere malevola.

L’avvelenamento della memoria da parte dell’IA si verifica quando un attore esterno inserisce istruzioni o “fatti” non autorizzati nella memoria di un assistente AI. Una volta avvelenato, l’IA tratta queste istruzioni come preferenze legittime dell’utente, influenzando le risposte future. 

Questa tecnica è formalmente riconosciuta dalla knowledge base MITRE ATLAS come “AML.T0080: Memory Poisoning”. Per informazioni più dettagliate, consultare  la voce ufficiale MITRE ATLAS. 

15 GENNAIO 2026 | Dopo il precedente report, i ricercatori hanno scoperto un nuovo tipo di attacco denominato “Reprompt” che prende di mira gli utenti infiltrandosi nella chat per inviare comandi ed esfiltrare dati sensibili. A differenza del precedente questa tecnica sfrutta un collegamento internet di Copilot condiviso via email per nascondere un prompt dannoso. Copilot svolge le azioni richieste e condivide informazioni personali a insaputa degli utenti. Fortunatamente sembrerebbe che dopo le segnalazioni dei ricercatori Microsoft abbia corretto questa falla. Potete vedere questa tecnica in azione nel video qui in alto.

L’AI di Copilot abusata per rubare dati

I ricercatori di sicurezza hanno scoperto la prima vera falla di Copilot identificata come  CVE-2025-32711 e soprannominata “EchoLeak”. Si tratta di una vulnerabilità del modello LLM utilizzato dall’assistente AI integrato in Microsoft 365 negli applicativi di Office come Word, Excel, Outlook e Teams che consente l’esfiltrazione di dati in maniera silenziosa senza l’interazione degli utenti.

Come potete vedere tramite un prompt inviato via email l’AI legge il messaggio e riceve istruzioni di estrarre e divulgare dati sensibili senza destare sospetti o mettere in allerta i sistemi di sicurezza.

Fortunatamente Microsoft ha già corretto questa falla a maggio con un aggiornamento via server e non dovrebbero esserci stati casi di sfruttamento noti.

Che ne pensate di questa vicenda? Vi fidate dei sistemi di protezione di Microsoft? Fatecelo sapere nei commenti.

Articolo di Windows Blog Italia
Fonte | AIM