Microsoft ha annunciato il suo modello di intelligenza artificiale più piccolo, tanto da poter girare localmente sugli smartphone.

6 MARZO 2026 | Microsoft ha annunciato un ulteriore diversificazione dei modelli con Phi-4-reasoning-visionche bilancia potenza di ragionamento, efficienza e necessità di dati di addestramento – trovate maggiori dettagli a questo indirizzo.

Siamo lieti di annunciare Phi-4-reasoning-vision-15B , un modello di ragionamento multimodale open-weight da 15 miliardi di parametri, disponibile tramite Microsoft Foundry(si apre in una nuova scheda)HuggingFace(si apre in una nuova scheda)GitHub(si apre in una nuova scheda)Phi-4-reasoning-vision-15B è un modello ampiamente utilizzabile per una vasta gamma di attività di linguaggio visivo, come la didascalia delle immagini, la formulazione di domande sulle immagini, la lettura di documenti e ricevute, l’assistenza nei compiti, l’inferenza sui cambiamenti nelle sequenze di immagini e molto altro. Oltre a queste capacità generali, eccelle nel ragionamento matematico e scientifico e nella comprensione e nel radicamento di elementi su schermi di computer e dispositivi mobili. In particolare, il nostro modello presenta un valore interessante rispetto ai popolari modelli open-weight, spingendo oltre la frontiera di Pareto del compromesso tra accuratezza e costi di elaborazione. Offriamo prestazioni competitive rispetto a modelli molto più lenti che richiedono tempi di elaborazione e token dieci volte o più, e una migliore accuratezza rispetto a modelli altrettanto veloci, in particolare quando si tratta di ragionamento matematico e scientifico .

11 LUGLIO 2025 |Microsoft ha annunciato un ulteriore modello, Phi-4-mini-flash, simile ai precedenti modelloi di piccole dimensioni ma ancora più veloce ed efficiente – trovate maggiori dettagli a questo indirizzo.

Microsoft è lieta di presentare una nuova edizione della famiglia di modelli Phi: Phi-4-mini-flash-reasoning . Appositamente progettato per scenari in cui elaborazione, memoria e latenza sono fortemente limitati, questo nuovo modello è progettato per offrire funzionalità di ragionamento avanzate a dispositivi edge, applicazioni mobili e altri ambienti con risorse limitate. Questo nuovo modello segue Phi-4-mini, ma è basato su una nuova architettura ibrida, che raggiunge una produttività fino a 10 volte superiore e una riduzione media della latenza da 2 a 3 volte, consentendo un’inferenza significativamente più rapida senza sacrificare le prestazioni di ragionamento. 

2 MAGGIO 2025 | Dopo il lancio di Phi-4-multimodal e Phi-4-mini negli scorsi mesi Microsoft ha annunciato Phi-4-reasoning, un nuovo modello di ragionamento di un modello di piccole dimensioni che offre prestazioni migliori di Deepseek R1 – trovate maggiori dettagli a questo indirizzo.

27 FEBBRAIO 2025 | A poco meno di un anno di distanza Microsoft ha annunciato i modelli di nuova generazione Phi-4-multimodal e Phi-4-mini. Phi-4-multimodal migliora il riconoscimento vocale, la traduzione, la sintesi, la comprensione audio e l’analisi delle immagini. Phi-4-mini è progettato per situazioni di velocità ed efficienza ed entrambi possono essere utilizzati dagli sviluppatori su smartphone, PC e automobili – trovate maggiori dettagli a questo indirizzo.

LLM che gira sugli smartphone

Microsoft continua a investire nell’intelligenza artificiale e non dimentica l’importanza del settore mobile. La terza versione del modello linguistico su larga scala phi-3 è così piccolo da poter funzionare anche sugli smartphone. Piccolo tuttavia non significa poco prestante, secondo i benchmark pubblicati è già in grado di battere il famoso GPT-3.5, un modello molto più ampio.

I Large Language Models stanno diventando sempre più grandi: alcuni di questi hanno centinaia di miliardi o addirittura trilioni di parametri. A questo proposito, diversi mesi fa, i ricercatori di Microsoft si sono chiesti: “Quanti parametri sono davvero necessari per costruire un modello che offra un ragionamento di senso comune?”. La risposta è arrivata con la nuova famiglia di modelli linguistici di piccole dimensioni Phi-3 e il primo Phi-3-mini (con soli 3,8 miliardi di parametri), ora disponibile attraverso Azure, HuggingFace e Ollama.

Addestrato su dati sintetici di alta qualità, Phi-3 ha uno dei migliori rapporti costo-prestazioni di qualsiasi altro modello sul mercato ed è in grado di superare modelli di dimensioni fino a 10 volte superiori, dimostrando che un numero maggiore di parametri non è necessariamente la scelta migliore e offrendo una nuova opzione per i clienti con esigenze diverse in termini di costi, latenza e infrastruttura.

Di seguito alcuni dettagli sulla nuova soluzione:

Phi-3 dimostra che i dati sintetici di alta qualità sono un’opzione valida per l’addestramento dei modelli linguistici e crea opportunità uniche per ulteriori innovazioni.

  • Questa innovazione è nata nei laboratori di ricerca di Microsoft ed è stata ampliata dal nuovo team GenAI dell’azienda. Il team ha sviluppato tecniche ispirate al modo in cui i bambini imparano utilizzando le storie della buonanotte e ha migliorato il set di dati approcciando la loro selezione come un insegnante che spiega concetti difficili a uno studente.
  • Oltre a tutte le altre fasi legate alla Responsible AI che vengono adottate prima di rilasciare un modello, l’addestramento che sfrutta i dati sintetici ha permesso a Microsoft di aggiungere un ulteriore livello di sicurezza e di ridurre i problemi più comuni legati all’uso di un linguaggio dannoso come quello che spesso viene mostrato dai modelli addestrati su dati provenienti da Internet.

La famiglia di modelli Phi-3 può contribuire ad abbattere le barriere associate a costi ed efficienza.

  • Phi-3-mini ha 3,8B parametri, ma supera i competitor più grandi. Ciò significa che i compiti che normalmente verrebbero affidati a un modello più grande possono essere gestiti da una soluzione che offre un ingombro minore.
  • Grazie alla sua dimensione ridotta Phi-3 è facile da implementare e meno costoso e può essere utilizzato per casi d’uso personalizzati.
  • Phi-3-small (parametri 7B) e Phi-3-medium (parametri 14B) saranno presto disponibili e offriranno proposte di valore simili con prestazioni scalari.

Microsoft sostiene la community degli sviluppatori rendendo Phi-3 disponibile su più piattaforme.

  • Phi-3 sarà disponibile su HuggingFace e Ollama oltre che su Azure, consentendo a chiunque di eseguire il modello localmente e di sfruttare i vantaggi dell’AI generativa.
  • Le dimensioni ridotte di Phi-3-mini consentiranno agli utenti di eseguire il modello sul dispositivo senza la necessità di una connessione a Internet o di un accesso al cloud, ampliando l’accesso all’intelligenza artificiale in luoghi privi delle infrastrutture necessarie per sfruttare gli LLM.

Questa novità apre a scenari potenziali interessanti con una vera integrazione dell’AI sugli smartphone, che potrà girare localmente senza dover accedere al cloud, con tempi di risposta ed esecuzione immediati alle domande ed esecuzione delle azioni richieste. Potete vederne un assaggio del potenziale nel video qui in basso.

Cosa ne pensate di questi investimenti nell’AI da parte di Microsoft? Fatecelo sapere lasciando un commento.

Articolo di Windows Blog Italia