จากในอดีตจนถึงปัจจุบัน เทคโนโลยีของมนุษย์มันการพัฒนาอยู่เสมอ นั่นทำให้ทุกวันนี้มนุษย์จะมีเทคโนโลยีใหม่ๆ ที่คอยอำนวยความสะดวกให้กับชีวิตเกิดขึ้นอยู่ตลอดเวลา
ซึ่งเทคโนโลยีอำนวยความสะดวกดังกล่าวก็มีอยู่ด้วยกันมากมายหลายอย่าง หนึ่งในนั้นก็คือ Artificial Intelligence (AI) ที่เราสามารถใช้เสียงสั่งการหรือพูดคุยกับคอมพิวเตอร์ได้โดยตรง
แต่จะเป็นอย่างไรล่ะ เมื่อ AI ที่เราต้องการใช้ประโยชน์กลับส่งเสียงตอบโต้คุณมาว่า “จงฆ่าพ่อแม่บุญธรรมของคุณซะ”
สำนักข่าว Reuters ได้รายงานว่ามีลูกค้าคนหนึ่งถูก AI ชื่อดังของ Amazon อย่าง Alexa ส่งเสียงบอกว่า “จงฆ่าพ่อแม่บุญธรรมของคุณซะ” ซึ่งกลายเป็นที่พูดถึงในโลกโซเชียลอย่างรวดเร็ว
โดยมีการคาดการณ์ว่า Alexa ไปเรียนรู้ประโยคดังกล่าวมาจาก Reddit และนำมาใช้โดยที่ไม่ได้วิเคราะห์ถึงบริบทก่อน
หลังจากเกิดเหตุการณ์ดังกล่าวตัวแทนของ Amazon ก็ได้ออกมายอมรับข้อผิดพลาดดังกล่าว
“Alexa นั้นใช้ข้อมูลจากอินเตอร์เน็ตเพื่อพัฒนาตัวของมันเอง ดังนั้นจึงมีโอกาสที่ Socialbot ของเราจะเรียนรู้อะไรต่างๆ จากบางสิ่งที่ไม่เหมาะสม
ข้อเท็จจริงคือมีลูกค้าที่ใช้งาน Socialbot เป็นล้านๆ คน แต่กรณีแบบนี้ถือว่าเป็นกรณีที่ไม่ได้เกิดขึ้นบ่อยสักเท่าไหร่” ตัวแทนของ Amazon ได้กล่าวเอาไว้
แต่อย่างไรก็ตามนี่ไม่ใช่ครั้งแรกที่ Alexa ได้ทำอะไรแปลกๆ เพราะในเดือนพฤษภาคมก็มีชายจากประเทศเยอรมนีเผยว่าเขาได้รับไฟล์เสียงกว่า 1,700 ไฟล์ที่ Alexa ทำการบันทึกมาจากคนแปลกหน้า
Leave a Reply
You must be logged in to post a comment.