Google ถูกล็อคจากการถอนฟีเจอร์ AI หลังจากเกิดกระแสต่อต้านจากฝ่ายขวา

(SeaPRwire) –   เดือนกุมภาพันธ์กำลังจะเป็นเดือนที่ดีที่สุดสำหรับกลยุทธ์ปัญญาประดิษฐ์ที่ทะเยอทะยานของ Google บริษัทได้เปลี่ยนชื่อแชทบอทว่าเป็น Gemini และได้ออกการอัปเกรดผลิตภัณฑ์ที่สำคัญสองรายการ เพื่อแข่งขันกับคู่แข่งในทุกด้านในการแข่งขันด้าน AI ที่เดิมพันสูง ท่ามกลางทั้งหมดนั้น ทาง Google ยังอนุญาตให้ผู้ใช้ Gemini สร้างภาพของบุคคลที่ดูสมจริงได้อีกด้วย

ในตอนแรก ผู้คนไม่ค่อยสังเกตเห็นฟีเจอร์นี้ บริษัทอื่นๆ อย่าง OpenAI มีเครื่องมือที่ให้ผู้ใช้สร้างรูปภาพของบุคคลได้อย่างรวดเร็ว ซึ่งสามารถใช้สำหรับการตลาด งานศิลปะ และการระดมความคิดเพื่อสร้างสรรค์ แต่ก็เหมือนกับผลิตภัณฑ์ AI อื่นๆ เครื่องมือสร้างรูปภาพเหล่านี้มีความเสี่ยงที่จะสร้างอคติต่อเนื่องตามข้อมูลที่พวกเขาป้อนเข้ามาในกระบวนการพัฒนา หากคุณถามถึงพยาบาล บริการ AI บางอย่างก็มีแนวโน้มที่จะแสดงภาพผู้หญิง แต่หากคุณถามถึงประธานเจ้าหน้าที่บริหาร คุณก็มักจะเห็นผู้ชาย

อีกไม่กี่สัปดาห์หลังจากที่ Google เปิดตัวฟีเจอร์ดังกล่าว ผู้ใช้ Gemini ก็พบปัญหากันอย่างหนึ่ง ตั้งแต่ วันที่ 20 กุมภาพันธ์ที่ผ่านมาและต่อเนื่องตลอดทั้งสัปดาห์ ผู้ใช้บน X ก็แห่กันมาที่แพลตฟอร์มโซเชียลมีเดียพร้อมกับยกตัวอย่างที่ Gemini ไม่แสดงให้เห็นคนผิวขาว แม้ว่าจะเป็นบริบทในเชิงประวัติศาสตร์ที่พวกเขามีแนวโน้มที่จะมีอิทธิพลสูง เช่น เมื่อผู้ใช้ร้องขอรูปภาพของบรรพบุรุษผู้ก่อตั้ง หรือทหารชาวเยอรมันในปี 1943 ไม่นานนัก บุคคลสาธารณะและสำนักข่าวที่มีผู้ชมฝ่ายขวามากมายก็อ้างว่าการทดสอบ Gemini ของตนแสดงให้เห็นว่าทาง Google มีจุดประสงค์แอบแฝงที่ต่อต้านคนผิวขาว โดยใช้หลักฐานที่น่าสงสัย

Elon Musk เจ้าของ X ได้เข้ามามีส่วนร่วมในเรื่องนี้ โดยมีส่วนร่วมกับโพสต์ต่างๆ หลายสิบโพสต์เกี่ยวกับการสมรู้ร่วมคิดที่ไม่มีมูลความจริง รวมถึงหลายๆ โพสต์ที่ระบุว่าผู้นำ Google แต่ละคนเป็นผู้ออกแบบนโยบายดังกล่าว เมื่อวันพฤหัสบดีที่ผ่านมา ทาง Google ได้หยุดการทำงานสร้างรูปภาพบุคคลของ Gemini ชั่วคราว ในวันถัดมา Prabhakar Raghavan รองประธานอาวุโสของ Google ก็ได้พยายามที่จะชี้แจงการตัดสินใจของบริษัท แต่ไม่ได้อธิบายในเชิงลึกว่าเหตุใดฟีเจอร์นี้จึงล้มเหลว

การที่ Google ปล่อยผลิตภัณฑ์ที่ไม่สามารถจัดการกับการร้องขอรูปภาพในเชิงประวัติศาสตร์นั้นแสดงให้เห็นถึงความท้าทายที่ไม่เหมือนใคร ซึ่งบริษัทด้านเทคโนโลยีต้องเผชิญในการป้องกันไม่ให้ระบบ AI ของตนขยายความลำเอียงและข้อมูลที่ผิดๆ โดยเฉพาะอย่างยิ่งเมื่อพิจารณาถึงแรงกดดันจากการแข่งขันที่จะนำผลิตภัณฑ์ AI ออกสู่ตลาดอย่างรวดเร็ว แทนที่จะชะลอการเปิดตัวเครื่องสร้างรูปภาพที่มีข้อบกพร่องนั้น ทาง Google จึงพยายามแก้ไขปัญหาเฉพาะหน้า

เมื่อ Google เปิดตัวเครื่องมือนั้น ได้รวมการแก้ไขทางเทคนิคเพื่อลดอคติในผลลัพธ์ โดยอ้างอิงจากบุคคล 2 คนที่มีความรู้เกี่ยวกับเรื่องนี้ ซึ่งขอสงวนชื่อตนไว้เพื่อหารือเกี่ยวกับข้อมูลส่วนบุคคล แต่ผู้ที่ Google ทำเช่นนั้นโดยไม่ได้คาดการณ์ทั้งหมดในวิธีที่เครื่องมือนั้นอาจจะทำงานผิดพลาด และโดยที่ไม่ได้โปร่งใสเกี่ยวกับแนวทางของตน

การแก้ไขที่มากเกินไปของ Google สำหรับอคติที่รู้จักกันดีในด้าน AI กับคนผิวสีนั้นทำให้ Google ตกอยู่ในหายนะอีกครั้งจากเสียงโวยวายเกี่ยวกับความหลากหลาย บริษัทยักษ์ใหญ่ด้านเทคโนโลยีรายนี้เผชิญกับคำวิจารณ์มานานหลายปีแล้วเพราะแสดงภาพของคนผิวดำโดยผิดพลาดเมื่อผู้ใช้ค้นหา “ลิงกอริลลา” ในแอปรูปภาพ รวมถึงการต่อสู้ในที่สาธารณะที่ยืดเยื้อว่าได้ดำเนินการอย่างเหมาะสมหรือไม่ในการขับไล่หัวหน้าทีม AI ด้านจริยธรรม

จากการดำเนินการอย่างฉับไวเพื่อหยุดเครื่องมือนี้ชั่วคราวโดยไม่ได้อธิบายอย่างเพียงพอว่าเหตุใดระบบจึงตอบสนองในแบบนั้น ชาว Google และบุคคลอื่นๆ ใน Silicon Valley จึงกังวลว่าการดำเนินการดังกล่าวของบริษัทจะมีผลกระทบที่ร้ายแรง พวกเขากล่าวว่าสิ่งนี้อาจทำให้บุคลากรไม่พอใจที่จะทำงานเกี่ยวกับคำถามของ AI และอคติ ซึ่งเป็นประเด็นสำคัญสำหรับสาขานี้

“อุตสาหกรรมด้านเทคโนโลยีโดยรวม พร้อมด้วย Google ที่อยู่แถวหน้าอีกครั้ง ได้ทำให้ตนเองตกอยู่ในภาวะที่น่ากลัวอีกครั้งซึ่งเกิดจากการกระทำของตนเอง” Laura Edelson ผู้ช่วยศาสตราจารย์แห่งมหาวิทยาลัย Northeastern ผู้ศึกษาเกี่ยวกับระบบ AI และการไหลของข้อมูลผ่านเครือข่ายขนาดใหญ่ออนไลน์กล่าว “อุตสาหกรรมนี้ต้องการอย่างมากที่จะแสดง AI ในแบบของเวทมนตร์ และไม่ใช่ ” เธอกล่าว โดยอ้างถึงคำอุปมาอุปมัยที่นิยมซึ่งอธิบายถึงวิธีที่ระบบ AI เลียนแบบภาษาของมนุษย์ผ่านการจับคู่รูปแบบทางสถิติ โดยปราศจากความเข้าใจหรือการรับรู้ที่แท้จริง “แต่พวกเขามีแบบล้อเลียนแบบนกแก้ว”

“Gemini สร้างขึ้นเพื่อเป็นเครื่องมือสร้างสรรค์และเพิ่มผลผลิต และอาจไม่แม่นยำหรือเชื่อถือได้เสมอไป” โฆษกของ Google กล่าวในแถลงการณ์ “เรายังคงดำเนินการอย่างรวดเร็วในกรณีที่ผลิตภัณฑ์ไม่ตอบสนองอย่างเหมาะสม”

ในอีเมลถึงพนักงานเมื่อช่วงดึกวันอังคารที่ผ่านมา Sundar Pichai ประธานเจ้าหน้าที่บริหารของ Google กล่าวว่าพนักงาน “ทำงานตลอด 24 ชั่วโมง” เพื่อแก้ไขปัญหาที่ผู้ใช้ได้รายงานด้วยคำตอบของ Gemini พร้อมเสริมว่าบริษัทได้ลงทะเบียน “ปรับปรุงอย่างมีนัยสำคัญในคำสั่งที่หลากหลาย”

“ผมรู้ว่าคำตอบบางข้อทำให้ผู้ใช้ของเราไม่พอใจและแสดงความลำเอียง เพื่อชี้แจงให้ชัดเจนว่าสิ่งนั้นยอมรับไม่ได้โดยสิ้นเชิง และเราทำผิดพลาด” Pichai เขียนในบันทึกช่วยจำ ซึ่งรายงานครั้งแรกโดย Semafor “ไม่มี AI ใดที่สมบูรณ์แบบ โดยเฉพาะอย่างยิ่งในระยะการพัฒนาในปัจจุบันของอุตสาหกรรมนี้ แต่เรารู้ว่ามาตรฐานของเราสูงมากสำหรับเรา และเราจะพยายามต่อไปไม่ว่าจะใช้เวลานานแค่ไหน และเราจะตรวจสอบสิ่งที่เกิดขึ้นและตรวจสอบให้มั่นใจว่าได้แก้ไขในระดับใหญ่”

บทความนี้ให้บริการโดยผู้ให้บริการเนื้อหาภายนอก SeaPRwire (https://www.seaprwire.com/) ไม่ได้ให้การรับประกันหรือแถลงการณ์ใดๆ ที่เกี่ยวข้องกับบทความนี้

หมวดหมู่: ข่าวสําคัญ ข่าวประจําวัน

SeaPRwire จัดส่งข่าวประชาสัมพันธ์สดให้กับบริษัทและสถาบัน โดยมียอดการเข้าถึงสื่อกว่า 6,500 แห่ง 86,000 บรรณาธิการและนักข่าว และเดสก์ท็อปอาชีพ 3.5 ล้านเครื่องทั่ว 90 ประเทศ SeaPRwire รองรับการเผยแพร่ข่าวประชาสัมพันธ์เป็นภาษาอังกฤษ เกาหลี ญี่ปุ่น อาหรับ จีนตัวย่อ จีนตัวเต็ม เวียดนาม ไทย อินโดนีเซีย มาเลเซีย เยอรมัน รัสเซีย ฝรั่งเศส สเปน โปรตุเกส และภาษาอื่นๆ 

พนักงาน Google ที่ทำงานด้าน AI ด้านจริยธรรมต้องเผชิญกับภาวะข