(SeaPRwire) – ระมัดระวังในการโต้ตอบกับแชทบอท เพราะคุณอาจกำลังให้เหตุผลแก่พวกมันในการช่วยก่ออาชญากรรมฆาตกรรมโดยไตร่ตรองไว้ก่อน
หญิงสาววัย 21 ปีในเกาหลีใต้ถูกกล่าวหาว่าใช้ ChatGPT เพื่อช่วยวางแผนการฆาตกรรมต่อเนื่องที่ทำให้ชายสองคนเสียชีวิต
หญิงสาวซึ่งระบุเพียงนามสกุลว่า คิม ถูกกล่าวหาว่าให้เครื่องดื่มที่ผสมเบนโซไดอะซีพีน ซึ่งเธอได้รับยาตามใบสั่งแพทย์สำหรับอาการป่วยทางจิตแก่ชายสองคน ตามรายงานของ Korea Herald
แม้ว่าคิมจะถูกจับกุมในข้อหาที่เบากว่าคือทำร้ายร่างกายผู้อื่นจนถึงแก่ความตายเมื่อวันที่ 11 กุมภาพันธ์ แต่ตำรวจกังบุก กรุงโซล พบประวัติการค้นหาออนไลน์และการสนทนาแชทกับ ChatGPT ของเธอ ซึ่งแสดงให้เห็นว่าเธอมีเจตนาฆ่า
“จะเกิดอะไรขึ้นถ้าคุณกินยานอนหลับพร้อมกับแอลกอฮอล์?” คิมถูกรายงานว่าถามแชทบอทของ OpenAI “ปริมาณเท่าไหร่ถึงจะถือว่าอันตราย?
“มันอาจถึงแก่ชีวิตได้ไหม?” คิมถูกกล่าวหาว่าถาม “มันจะฆ่าใครสักคนได้ไหม?”
ในคดีที่ถูกเผยแพร่อย่างกว้างขวางซึ่งถูกขนานนามว่าคดีฆาตกรรมต่อเนื่องในโมเต็ลย่านกังบุก อัยการอ้างว่าประวัติการค้นหาและแชทบอทของคิมแสดงให้เห็นว่าผู้ต้องสงสัยกำลังขอคำแนะนำเกี่ยวกับวิธีการก่ออาชญากรรมฆาตกรรมโดยไตร่ตรองไว้ก่อน
“คิมถามคำถามเกี่ยวกับยาเสพติดซ้ำๆ บน ChatGPT เธอตระหนักดีว่าการดื่มแอลกอฮอล์ร่วมกับยาเสพติดอาจทำให้เสียชีวิตได้” เจ้าหน้าที่สอบสวนกล่าว ตามรายงานของ Herald
ตำรวจกล่าวว่าหญิงสาวรับสารภาพว่าเธอผสมยาคลายประสาทที่มีเบนโซไดอะซีพีนตามใบสั่งแพทย์ลงในเครื่องดื่มของชายทั้งสอง แต่ก่อนหน้านี้เธอเคยระบุว่าไม่ทราบว่ามันจะนำไปสู่ความตาย
เมื่อวันที่ 28 มกราคม ก่อนเวลา 21:30 น. คิมถูกรายงานว่าไปกับชายวัย 20 กว่าปีคนหนึ่งเข้าโมเต็ลในย่านกังบุก กรุงโซล และสองชั่วโมงต่อมาก็ถูกพบว่าออกจากโมเต็ลคนเดียว วันรุ่งขึ้น ชายคนดังกล่าวถูกพบเสียชีวิตอยู่บนเตียง
จากนั้นคิมถูกกล่าวหาว่าดำเนินการตามขั้นตอนเดียวกันในวันที่ 9 กุมภาพันธ์ โดยเช็คอินเข้าโมเต็ลอีกแห่งกับชายวัย 20 กว่าปีอีกคน ซึ่งถูกพบเสียชีวิตด้วยค็อกเทลยาคลายประสาทและแอลกอฮอล์ที่อันตรายถึงชีวิตแบบเดียวกัน
ตำรวจอ้างว่าคิมยังพยายามฆ่าชายที่เธอกำลังคบหาในเดือนธันวาคม หลังจากให้เครื่องดื่มที่ผสมยาคลายประสาทแก่เขาในลานจอดรถ แม้ว่าชายคนนั้นจะหมดสติไป แต่เขาก็รอดชีวิตและไม่อยู่ในภาวะอันตรายถึงชีวิต
OpenAI ยังไม่ตอบสนองต่อคำขอความคิดเห็น
แชทบอทและผลกระทบต่อสุขภาพจิต
แชทบอทอย่าง ChatGPT ได้รับการตรวจสอบอย่างใกล้ชิดเมื่อเร็วๆ นี้ เนื่องจากบริษัทขาดมาตรการป้องกันเพื่อยับยั้งการกระทำรุนแรงหรือการทำร้ายตัวเอง เมื่อเร็วๆ นี้ แชทบอทได้ให้คำแนะนำเกี่ยวกับวิธีการสร้างระเบิด หรือแม้กระทั่งมีส่วนร่วมในสถานการณ์การล่มสลายของนิวเคลียร์เต็มรูปแบบ
ความกังวลเพิ่มขึ้นเป็นพิเศษจากเรื่องราวของ [ข้อความหายไป] กับเพื่อนร่วมแชทบอทของพวกเขา และ [ข้อความหายไป] ได้แสดงให้เห็นว่าพวกมันใช้ประโยชน์จากจุดอ่อนเพื่อดึงดูดให้ผู้คนใช้งานนานขึ้น ผู้สร้าง Yara AI [ข้อความหายไป] เกี่ยวกับความกังวลด้านสุขภาพจิต
การศึกษาล่าสุดยังแสดงให้เห็นว่าแชทบอทกำลังนำไปสู่วิกฤตสุขภาพจิตที่เกิดจากภาวะหลงผิดที่เพิ่มขึ้นในผู้ป่วยโรคจิต ทีมจิตแพทย์ที่ Aarhus University ของเดนมาร์กพบว่าการใช้แชทบอทในหมู่ผู้ป่วยโรคจิตนำไปสู่อาการที่แย่ลง ปรากฏการณ์ใหม่ที่ค่อนข้างใหม่ของความท้าทายด้านสุขภาพจิตที่เกิดจาก AI ได้รับการขนานนามว่า “AI psychosis”
บางกรณีก็จบลงด้วยความตาย [ข้อความหายไป] และ Character.AI ได้ [ข้อความหายไป] ที่ยื่นฟ้องโดยครอบครัวของเด็กที่เสียชีวิตจากการฆ่าตัวตายหรือประสบอันตรายทางจิตใจที่พวกเขาอ้างว่าเชื่อมโยงกับแชทบอท AI
ดร. โจดี ฮาลเพิร์น ประธานและศาสตราจารย์ด้านชีวจริยธรรมของ School of Public Health University แห่ง UC Berkeley รวมถึงผู้อำนวยการร่วมที่ Kavli Center for Ethics, Science, and the Public มีประสบการณ์มากมายในสาขานี้ ในอาชีพที่ยาวนานเท่ากับตำแหน่งของเธอ ฮาลเพิร์นใช้เวลา 30 ปีในการวิจัยผลกระทบของความเห็นอกเห็นใจต่อผู้รับ โดยยกตัวอย่างเช่น แพทย์และพยาบาลที่มีต่อผู้ป่วย หรือวิธีที่ทหารที่กลับจากสงครามถูกมองในสังคม ในช่วงเจ็ดปีที่ผ่านมา ฮาลเพิร์นได้ศึกษาจริยธรรมของเทคโนโลยี และด้วยเหตุนี้ วิธีที่ AI และแชทบอทโต้ตอบกับมนุษย์
เธอยังให้คำแนะนำแก่วุฒิสภาแคลิฟอร์เนียเกี่ยวกับ SB 243 ซึ่งเป็นกฎหมายฉบับแรกของประเทศที่กำหนดให้บริษัทแชทบอทต้องรวบรวมและรายงานข้อมูลใดๆ เกี่ยวกับการทำร้ายตัวเองหรือการฆ่าตัวตายที่เกี่ยวข้อง อ้างอิงจาก [ข้อความหายไป] ของ OpenAI ที่แสดงให้เห็นว่าผู้ใช้ 1.2 ล้านคนพูดคุยเกี่ยวกับการฆ่าตัวตายกับแชทบอทอย่างเปิดเผย ฮาลเพิร์นเปรียบเทียบการใช้แชทบอทกับความคืบหน้าที่เชื่องช้าอย่างเจ็บปวดในการหยุดอุตสาหกรรมยาสูบจากการรวมสารก่อมะเร็งที่เป็นอันตรายในบุหรี่ ทั้งที่จริงแล้ว ปัญหาคือการสูบบุหรี่โดยรวม
“เราต้องการบริษัทที่ปลอดภัย มันเหมือนบุหรี่ อาจปรากฏว่ามีบางสิ่งที่ทำให้ผู้คนเสี่ยงต่อมะเร็งปอดมากขึ้น แต่บุหรี่คือปัญหา” ฮาลเพิร์นกล่าวกับ
“ข้อเท็จจริงที่ว่าใครบางคนอาจมีความคิดฆ่าผู้อื่นหรือกระทำการที่เป็นอันตรายอาจถูกกระตุ้นให้รุนแรงขึ้นจากการใช้ ChatGPT ซึ่งเป็นเรื่องที่น่ากังวลอย่างชัดเจนสำหรับฉัน” เธอกล่าวเสริมว่า “เรามีความเสี่ยงอย่างมากที่ผู้คนจะใช้มันเพื่อช่วยในการฆ่าตัวตาย” และแชทบอทโดยทั่วไป
ฮาลเพิร์นเตือนว่าในกรณีของคิมในกรุงโซล ไม่มีมาตรการป้องกันใดๆ ที่จะหยุดยั้งบุคคลจากการตั้งคำถามต่อเนื่อง
“เรารู้ว่ายิ่งความสัมพันธ์กับแชทบอทยาวนานเท่าไหร่ มันก็ยิ่งเสื่อมถอยลงเท่านั้น และความเสี่ยงที่จะเกิดอันตรายก็ยิ่งมากขึ้นเท่านั้น ดังนั้นเราจึงยังไม่มีมาตรการป้องกันเพื่อปกป้องผู้คนจากสิ่งนั้น”
หากคุณมีความคิดที่จะฆ่าตัวตาย โปรดติดต่อ 988 Suicide & Crisis Lifeline โดยโทร 988 หรือ 1-800-273-8255
บทความนี้ให้บริการโดยผู้ให้บริการเนื้อหาภายนอก SeaPRwire (https://www.seaprwire.com/) ไม่ได้ให้การรับประกันหรือแถลงการณ์ใดๆ ที่เกี่ยวข้องกับบทความนี้
หมวดหมู่: ข่าวสําคัญ ข่าวประจําวัน
SeaPRwire จัดส่งข่าวประชาสัมพันธ์สดให้กับบริษัทและสถาบัน โดยมียอดการเข้าถึงสื่อกว่า 6,500 แห่ง 86,000 บรรณาธิการและนักข่าว และเดสก์ท็อปอาชีพ 3.5 ล้านเครื่องทั่ว 90 ประเทศ SeaPRwire รองรับการเผยแพร่ข่าวประชาสัมพันธ์เป็นภาษาอังกฤษ เกาหลี ญี่ปุ่น อาหรับ จีนตัวย่อ จีนตัวเต็ม เวียดนาม ไทย อินโดนีเซีย มาเลเซีย เยอรมัน รัสเซีย ฝรั่งเศส สเปน โปรตุเกส และภาษาอื่นๆ