Microsoft s'excuse pour les tweets blessants de son programme d'intelligence artificielle
Vendredi dernier, l'entreprise Microsoft s'est excusée pour les tweets racistes et sexistes générés par un « chatbot » ou programme informatique d'intelligence artificielle qu'elle a créé. Microsoft a conçu le programme baptisé Tay afin de mieux comprendre comment les logiciels d'intelligence artificielle interagissent avec les humains.
Pourtant, peu après son lancement mercredi dernier, il a commencé à générer des tweets blessants, notamment des messages dans lesquels il approuvait le génocide et disait que les féministes devraient « brûler en enfer ». Microsoft l'a déconnecté jeudi.
Les ingénieurs de Microsoft affirment que ces messages ont résulté d'une « attaque coordonnée » du programme. Tay a été conçu pour « apprendre » à travers ses interactions avec les humains et certains utilisateurs de Twitter l'ont entraîné à poster des tweets injurieux. La multinationale a déclaré qu'elle remettrait Tay en ligne dès qu'elle saurait comment empêcher la situation de se reproduire.
Tay n'est pas le premier chatbot à avoir été créé par Microsoft. En 2014, l'entreprise en a sorti un du nom de XiaoIce en Chine. Ce programme a été un succès, et près de 40 millions de personnes l'utilisent auj