« Souvent pertinente, surprenante avec son utilisation juste des emojis et de certains gifs, Tay s’en est plutôt bien tiré dans une bonne partie des 96 000 tweets envoyés, sauvée par la légèreté assumée de ses propos. Et ce, grâce à son identité d’adolescente un peu superficielle
», rapporte Le Monde.
« Néanmoins, une autre importante partie de ses publications n’était pas du tout cohérente, et n’avait aucun rapport avec les questions que lui ont posées les internautes.
»
Pour converser, Tay utilise une base de données contenant des connaissances et données accessibles publiquement. Elle dispose aussi d’un grand nombre de réponses toutes faites, rédigées par une équipe incluant des humoristes.
Elle accroît sa base de connaissances au fur et à mesure qu'elle interagit avec les utilisateurs, accumulant notamment des données sur chacun de ses interlocuteurs afin de personnaliser la conversation. Des données « anonymisées » qui ne sont conservées que pendant un an, promet Microsoft.
De façon prévisible, des utilisateurs ont testé ses limites et réussi à la pousser à tenir certains propos et la faire déraper. Elle s’est retrouvée à faire l’apologie d’Adolf Hitler et du négationnisme, ou à publier des messages au contenu tantôt sexiste, tantôt antisémite ou raciste.
Après 24 heures, Microsoft a préféré la faire taire. Tay a annoncé qu’elle avait « besoin de sommeil ». La société s'est excusée vendredi auprès des utilisateurs de Twitter pour la tournure qu'a prise cette expérimentation « sociale et culturelle » d'apprentissage automatique, rapporte l'agence de presse Bloomberg. La société la ramènera en ligne une fois qu'elle sera confiante que Tay pourra « mieux anticiper les activités malveillantes », a-t-il été précisé.
Lors du développement de Tay, un grand nombre de filtrages ont été mis en place et plusieurs études avec des utilisateurs de groupes diversifiés ont été menées, a expliqué Peter Lee, vice-président à la recherche Microsoft.
Tay n'était pas la première application d'intelligence artificielle du type expérimentée par Microsoft, le chatbot (« agent conversationnel » ou « robot de discussion ») Xiaocle a été utilisé par 40 millions de personnes en Chine.
Ce genre d'efforts est important pour développer une meilleure technologie de traitement du langage naturel conduisant à des robots plus sophistiqués et faciles à utiliser. Actuellement, les outils d'assistance tels que Cortana de Microsoft et Siri d'Apple ne peuvent traiter que les demandes simples et directes et ne sont pas en mesure de traiter des questions nuancées ou d'avoir une compréhension contextuelle telle que nécessaire pour le sarcasme par exemple.
Psychomédia avec sources : Le Monde, Bloomberg.
Tous droits réservés