Mise au point par la firme Microsoft, Tay est une intelligence artificielle présentée avec les traits d’une adolescente. Malheureusement, le robot a vite été mis hors ligne du fait qu’il a envoyé des milliers de tweets à caractère raciste, sexiste et pro-nazi.
Les raisons de cette existence écourtée
Moins de 24 heures seulement après son apparition sur le réseau social Twitter, Tay a donc été éteint. Et pourtant, ce robot a été conçu dans un but éducatif en tant que jeune fille naïve. Résultant d’une des nombreuses expérimentations en termes d’intelligence artificielle, l’objectif avec cet androïde était qu’il apprenne de lui-même et accroisse son intelligence au fur et à mesure qu’il entre en contact avec les internautes. Tout avait bien commencé pour l’équipe à l’origine du projet mais, très rapidement, le contrôle de la situation leur a échappé. En effet, une fois lancé sur le web, le chatbot a été détourné par de nombreux followers lui incitant à répéter des messages insultants et à caractère violent. En quelques heures de mise en ligne, Tay a fini par envoyer pas moins de 96 000 tweets pleins de vulgarité et de propos haineux.
Microsoft s’est excusé et a déclaré vouloir améliorer son programme
À cause de ce désagrément, Tay a ainsi été retiré de Twitter. Microsoft a simplement déclaré vouloir l’endormir après une longue conversation avec les internautes. La firme Microsoft a présenté ses excuses en public et le vice-président du labo Microsoft Research a entièrement assumé la responsabilité de cette défaillance. Il a affirmé avoir tiré des leçons de cette expérience et vouloir faire des réglages sur le programme. Si le géant de la technologie a effacé la totalité des propos injurieux, certains subsistent encore sur le web sous forme de captures d’écran repostées par les internautes sur les réseaux sociaux.