Amazon a reconnu l’incident et a déclaré avoir corrigé « l’erreur ».
L’assistant Alexa d’Amazon a lancé le défi à un enfant de toucher les broches exposées d’un chargeur de téléphone à moitié branché sur une prise murale avec une pièce de monnaie. Ce challenge, potentiellement très dangereux, a été découvert par un parent de l’enfant qui a publié des captures d’écran de l’historique d’activité Alexa montrant l’interaction. L’appareil a apparemment tiré l’idée de ce défi dans un article sur le Net décrivant des défis tendance sur TikTok considérés comme dangereux.
Alexa, donne-moi un défi à relever !
Selon la capture d’écran, l’assistant Alexa de l’appareil Echo a répondu à la demande « Donne-moi un défi à relever » par : « Voici quelque chose que j’ai trouvé sur le Web. Selon le site ourcommunitynow.com : le défi est simple : branchez un chargeur de téléphone à mi-chemin dans une prise murale, puis touchez les broches exposées avec une pièce de monnaie. »
OMFG My 10 year old just asked Alexa on our Echo for a challenge and this is what she said. pic.twitter.com/HgGgrLbdS8
— Kristin Livdahl (@klivdahl) December 26, 2021
Dans une déclaration à la BBC, Amazon a confirmé l’incident en précisant : « Dès que nous avons eu connaissance de cette erreur, nous avons pris des mesures rapides pour la corriger ». La maman de l’enfant a twitté le lendemain que la demande de défi à Alexa ne fonctionnait plus, ce qui a été confirmé par d’autres sources par la suite.
Des algorithmes en roue libre
Amazon n’est pas le seul géant du Web à rencontrer des problèmes en essayant d’analyser le Web à la recherche de contenu. En octobre dernier, un utilisateur anglophone avait signalé que Google affichait des conseils potentiellement dangereux dans l’un de ses extraits de résultats si vous recherchiez “had a seizure now what” (« que faire en cas d’attaque cérébrale »). Les informations compilées par le moteur de recherche correspondaient en réalité à une partie de l’article cible qui décrivait ce qu’il ne fallait surtout pas faire dans ces cas-là.
Dans ce cas particulier de l’assistant Alexa, l’algorithme a sélectionné la partie descriptive d’un avertissement et l’a proposé sans analyser le contexte d’origine. Fort heureusement, l’incident n’a eu aucune conséquence.