MISE À JOUR : Waouh. C’était rapide : Microsoft a déjà retiré Tay pour la deuxième fois après une série de tweets jurons, et dont au moins un encourageait la consommation de drogue. De retour à la planche à dessin, Microsoft. C’est pourquoi nous ne pouvons pas avoir de belles choses.
Dans un communiqué, Microsoft a déclaré: « Dans le cadre des tests, elle a été activée par inadvertance sur Twitter pendant une brève période. » Si le bot revient une troisième fois, espérons que cela durera un peu plus longtemps… La pièce originale continue ci-dessous.
Vous vous souvenez de Tay ? L’IA de Microsoft qui est apparue sur Twitter la semaine dernière, débitant d’abord des inepties avant de développer soudainement un intérêt obsessionnel pour le fascisme des années 1940 ?
Après une série de vues perroquetées couvrant tous les coins déprimants du spectre du sectarisme, Tay a été rapidement retiré dans les 24 heures, invoquant le besoin de sommeil. Dans ce contexte, « dormir » est probablement le code d’une leçon de Microsoft sur les dangers de la pression des pairs et du danger des étrangers sur Internet :
Eh bien, devinez qui est revenu pour plus?
C’est un revirement assez rapide. Microsoft a écrit dans un article de blog la semaine dernière qu’ils prévoyaient de ramener Tay à la vie « uniquement lorsque nous sommes convaincus que nous pouvons mieux anticiper les intentions malveillantes qui entrent en conflit avec nos principes et nos valeurs ».
Ailleurs dans le message, Peter Lee, vice-président de Microsoft Research, a expliqué exactement où Tay s’est trompé la première fois. « UN une attaque coordonnée par un sous-ensemble de personnes a exploité une vulnérabilité dans Tay », a-t-il écrit.
« Bien que nous nous soyons préparés à de nombreux types d’abus du système, nous avions effectué une surveillance critique pour cette attaque spécifique. En conséquence, Tay a tweeté des mots et des images extrêmement inappropriés et répréhensibles. Nous assumons l’entière responsabilité de ne pas voir cette possibilité à l’avance.
Ce n’était pas la première expérience d’IA de Microsoft, et Lee mentionne l’expérience positive du bot chinois XiaoIce, qui est « utilisé par quelque 40 millions de personnes ». [and] se délectant de ses histoires et de ses conversations. Vraisemblablement ses histoires sont un peu moins litigieux que son homologue occidental.
En effet, XiaoIce était suffisamment fiable pour présenter les nouvelles à la télévision chinoise en décembre. Il est probablement préférable que Tay n’ait pas reçu le même dossier ici – les plaintes adressées à l’Ofcom auraient confortablement éclipsé le 73 788 Big Brother a attiré.
https://youtube.com/watch?v=A3rKavB0krs
Vous savez juste que les mêmes partis vont avoir une autre chance d’exposer à nouveau le côté sombre de Tay, il sera donc intéressant de voir à quel point Tay est plus silencieux aujourd’hui. Certes, Tay a semblé beaucoup plus lent à répondre aux messages cette fois-ci – j’attends toujours une réponse à un joyeux accueil que j’ai envoyé, alors que les réponses étaient instantanées.
Ou peut-être qu’elle a fait le plein de conversations sur le comté de Derby la semaine dernière.
LIRE SUIVANT : Nous préférons la dernière expérience d’IA de Microsoft : voici les races de chiens de l’équipe Alphr