ຜູ້ຊ່ວຍ virtual ຂອງ Amazon ສາມາດເຮັດໃຫ້ຜູ້ໃຊ້ປະຕິບັດການກະທໍາທີ່ເປັນອັນຕະລາຍ, ເຫດການທີ່ເປີດເຜີຍບໍ່ດົນມານີ້. ອີງຕາມການ The Verge, ການຮ້ອງຂໍສິ່ງທ້າທາຍເຮັດໃຫ້ເດັກນ້ອຍຕ້ອງການປະຕິບັດການກະທໍາທີ່ອາດຈະເປັນອັນຕະລາຍ.
ໂດຍສະເພາະ, ເມື່ອຖືກຖາມກ່ຽວກັບສິ່ງທ້າທາຍ, ຜູ້ຊ່ວຍສຽງ virtual Alexa ຈະແນະນໍາເດັກໃຫ້ຖືຫຼຽນຕໍ່ກັບການຕິດຕໍ່ທີ່ເປີດເຜີຍຂອງສາຍສາກໂທລະສັບທີ່ສຽບໃສ່ຝາຜະຫນັງ. ແນ່ນອນ, ນີ້ສາມາດເຮັດໃຫ້ເກີດອາການຊ໊ອກແລະວົງຈອນສັ້ນ. ສຸດທ້າຍຮູ້ ເປັນນັກສັງເກດການເກົ່າr ເພື່ອປ້ອງກັນນີ້ແລະເຮັດໃຫ້ມັນເປັນທີ່ຮູ້ຈັກຜ່ານ Twitter, ອີງຕາມເວັບໄຊທ໌ເຕັກໂນໂລຢີ.
ມັນບໍ່ແມ່ນພຽງແຕ່ Alexa ຂອງ Amazon ທີ່ເບິ່ງຄືວ່າຈະຕໍ່ສູ້ກັບບັນຫາແບບນີ້. ການຄົ້ນຄວ້າຍັງສະແດງໃຫ້ເຫັນວ່າ Google Assistant ບໍ່ດົນມານີ້ໄດ້ໃຫ້ຄໍາແນະນໍາທີ່ອາດຈະເປັນອັນຕະລາຍ.
ຂໍ້ມູນການຕີຄວາມຜິດສໍາລັບສູດການຄິດໄລ່
ປາກົດຂື້ນ, ສູດການຄິດໄລ່ທີ່ຢູ່ເບື້ອງຫລັງ Alexa ລວມຂໍ້ມູນຕ່າງໆຈາກອິນເຕີເນັດເຂົ້າໄປໃນຄໍາຕອບນີ້. ມັນບໍ່ຈະແຈ້ງຢ່າງແນ່ນອນວ່າເຫດການນີ້ເກີດຂຶ້ນໄດ້ແນວໃດ. Amazon ໄດ້ດໍາເນີນການທັນທີເພື່ອຮັບປະກັນວ່າຂໍ້ມູນທີ່ຜິດພາດແລະເປັນອັນຕະລາຍນີ້ຈະບໍ່ສາມາດໃຊ້ໄດ້ໂດຍ Alexa ອີກຕໍ່ໄປ.
ຂໍ້ມູນ TikTok
ຂໍ້ມູນສ່ວນໃຫຍ່ທີ່ດຶງມາໂດຍຜູ້ຊ່ວຍ virtual ເບິ່ງຄືວ່າມາຈາກແພລະຕະຟອມສື່ສັງຄົມ TiKTok. ໃນທັງສອງກໍລະນີ, ຂໍ້ມູນນີ້ແມ່ນອີງໃສ່ຂໍ້ຄວາມໃນເວທີສື່ມວນຊົນສັງຄົມນີ້.