tay

Microsoft ha appena attivato su Twitter un bot di nome Tay. Come sapete, Microsoft sta lavorando costantemente allo sviluppo di una AI evoluta, in grado rispondere in maniera intelligente alle domande, fornendo assistenza.

AGGIORNAMENTO 2 | Tay non è poi così simpatica e docile come si possa pensare. La nuova AI del bot è stata in grado di imparare il peggio dell’umanità in meno di 24 ore, facendo discorsi razzisti e inneggiando al nazismo, tanto da obbligare Microsoft a cancellare alcuni tweet.

AGGIORNAMENTO 1 | Tay è ora ufficiale: si tratta di un chat-bot sperimentale per social-network sviluppato da Microsoft. Potrete interagire con Tay per intrattenimento o semplicemente per divertimento. Al momento è operativo su Twitter, Kik e GroupMe. Maggiori dettagli qui.

Tay is an artificial intelligent chat bot developed by Microsoft’s Technology and Research and Bing teams to experiment with and conduct research on conversational understanding. Tay is designed to engage and entertain people where they connect with each other online through casual and playful conversation. The more you chat with Tay the smarter she gets, so the experience can be more personalized for you. Tay is targeted at 18 to 24 year old in the US.

Se già Cortana riesce a interagire con noi, sarete sorpresi delle potenzialità di questo nuovo esperimento di Microsoft. Il bot è in grado di fare vere e proprie conversazioni, rispondendo a dialoghi concatenati, fatti di riferimenti e battute, tanto che in alcuni frangenti si ha l’impressione di conversare con una persona in carne ed ossa, nemmeno tanto stupida. Se volete provarla, basta twittare a @TayandYou o chattare via messaggi privati, naturalmente in inglese.

Al momento non è chiaro quale sia l’intento di Microsoft, o se si tratta di un assaggio di un imminente annuncio. Che ne pensate?

Articolo di Windows Blog Italia
Fonte | h0x0d