L'assistente virtuale di Amazon, Alexa, può costringere gli utenti a compiere azioni pericolose, secondo un incidente recentemente rivelato. Secondo The Verge, una richiesta di sfida ha fatto desiderare a un bambino di eseguire un'azione potenzialmente pericolosa.
Nello specifico, alla domanda su una sfida, l'assistente vocale virtuale Alexa avrebbe consigliato a un bambino di tenere una moneta contro i contatti esposti di un caricabatteria telefonico semicollegato a una presa a muro. Naturalmente, ciò avrebbe potuto provocare uno shock e un cortocircuito. Finalmente sapevo un vecchio osservatorer per impedirlo e per renderlo noto tramite Twitter, secondo il sito tecnico.
Non è solo l'Alexa di Amazon che sembra alle prese con questo tipo di problema. La ricerca mostra anche che Google Assistant ha recentemente fornito consigli potenzialmente pericolosi.
Informazioni errate per l'algoritmo
Apparentemente, l'algoritmo dietro Alexa ha combinato varie informazioni da Internet in questa risposta. Non è chiaro esattamente come ciò sia accaduto. Amazon ha preso provvedimenti immediati per garantire che queste informazioni errate e potenzialmente dannose non siano più rese disponibili da Alexa.
Informazioni su TikTok
Gran parte delle informazioni recuperate dagli assistenti virtuali sembra provenire dalla piattaforma di social media TiKTok. In entrambi i casi, queste informazioni si basavano sui post su questa piattaforma di social media.