Microsoft appena 48 ore fa aveva lanciato all’interno di alcune piattaforma, tra cui Twitter, Tay, un’intelligenza artificiale creata con lo scopo di imparare a colloquiare attraverso un linguaggio naturale con gli utenti umani. L’obiettivo era di affinare l’algoritmo di machine learing da utilizzarsi poi all’interno di altri servizi come l’assistente virtuale Cortana. A nemmeno 24 ore dal debutto di Tay, però, Microsoft ha dovuto spegnerlo.

Tay, infatti, ha iniziato ad inviare, su Twitter, messaggi contenenti termini scurrili, razzisti ed inneggianti a vecchie dittature. In realtà, la colpa di questo comportamento non è dell’intelligenza artificiale ma bensì di un mirato “attacco” portato da alcuni utenti. Lo scopo di Tay era, appunto, quello di imparare a dialogare con gli utenti mani, cosa che ha portato a termine correttamente anche se, purtroppo, nel senso sbagliato.

Purtroppo, infatti, un gruppo di troll di 4chan ha “insegnato” all’intelligenza artificiale a rispondere utilizzando contenuti offensivi. Tay, dunque, essendo una macchina non ha direttamente responsabilità essendo stato forzato a comportarsi in questa maniera da un gruppo di troll che puntavano probabilmente a danneggiare il lavoro di Microsoft.

Tay, dunque, è stato spento da Microsoft per evitare che l’intelligenza artificiale continuasse ad inviare messaggi offensivi. Tuttavia il progetto non sembra essere stato abbandonato. Tay, adesso, subirà una profonda revisione, probabilmente per ripulirlo dagli “insegnamenti” scorretti e forse per prevenire future situazioni spiacevoli analoghe. Non sono state, però comunicate tempistiche per il ritorno online dell’intelligenza artificiale.