Pembantu maya Amazon, Alexa boleh membuat pengguna melakukan tindakan berbahaya, satu insiden yang didedahkan baru-baru ini. Menurut The Verge, permintaan cabaran membuatkan kanak-kanak ingin melakukan tindakan yang berpotensi berbahaya.
Khususnya, apabila ditanya tentang cabaran, pembantu suara maya Alexa akan menasihati seorang kanak-kanak untuk memegang syiling pada kenalan terdedah pengecas telefon yang separuh dipalamkan ke soket dinding. Sudah tentu, ini boleh mengakibatkan kejutan dan litar pintas. Akhirnya tahu seorang tua yang memerhatir untuk mencegah perkara ini dan memaklumkannya melalui Twitter, menurut laman web teknologi itu.
Bukan sahaja Alexa Amazon yang nampaknya bergelut dengan masalah seperti ini. Penyelidikan juga menunjukkan bahawa Pembantu Google baru-baru ini telah memberikan nasihat yang berpotensi berbahaya.
Maklumat yang disalahtafsir untuk algoritma
Nampaknya, algoritma di sebalik Alexa menggabungkan pelbagai maklumat dari internet ke dalam jawapan ini. Tidak jelas bagaimana ini berlaku. Amazon telah mengambil tindakan segera untuk memastikan bahawa maklumat yang salah dan berpotensi berbahaya ini tidak lagi disediakan oleh Alexa.
Maklumat TikTok
Kebanyakan maklumat yang diperolehi oleh pembantu maya nampaknya datang dari platform media sosial TiKTok. Dalam kedua-dua kes, maklumat ini berdasarkan siaran pada platform media sosial ini.