พิเศษ: สมาชิกสภานิติบัญญัติสหราชอาณาจักร 60 คน กล่าวหา Google ละเมิดคำมั่นด้านความปลอดภัย AI

US-INTERNET-SOFTWARE-COMPUTERS-AI-GOOGLE

(SeaPRwire) –   กลุ่มสมาชิกสภาผู้แทนราษฎรสหราชอาณาจักร 60 คน จากหลายพรรค ได้กล่าวหา Google DeepMind ว่าละเมิดคำมั่นสัญญาของนานาชาติในการพัฒนาปัญญาประดิษฐ์อย่างปลอดภัย ในจดหมายที่เปิดเผยกับ TIME เป็นการเฉพาะก่อนการเผยแพร่ จดหมายดังกล่าว ซึ่งเผยแพร่เมื่อวันที่ 29 สิงหาคม โดยกลุ่มนักเคลื่อนไหว PauseAI U.K. ระบุว่าการที่ Google เปิดตัว Gemini 2.5 Pro เมื่อเดือนมีนาคม โดยไม่มีรายละเอียดเกี่ยวกับการทดสอบความปลอดภัย “สร้างบรรทัดฐานที่เป็นอันตราย” จดหมายฉบับนี้ซึ่งมีผู้ลงนามได้แก่ Baroness Beeban Kidron นักรณรงค์ด้านสิทธิทางดิจิทัล และ Des Browne อดีตรัฐมนตรีว่าการกระทรวงกลาโหม เรียกร้องให้ Google ชี้แจงคำมั่นสัญญาของตน

เป็นเวลาหลายปีที่ผู้นำในด้าน AI รวมถึง CEO ของ Google DeepMind ได้เตือนว่า AI อาจก่อให้เกิดความเสี่ยงร้ายแรงต่อความปลอดภัยสาธารณะและความมั่นคง – ตัวอย่างเช่น โดยการช่วยเหลือผู้ก่อการร้ายชีวภาพในการออกแบบเชื้อโรคชนิดใหม่ หรือแฮกเกอร์ในการโจมตีโครงสร้างพื้นฐานที่สำคัญ เพื่อจัดการกับความเสี่ยงเหล่านั้น ในการประชุมสุดยอด AI ระหว่างประเทศที่สหราชอาณาจักรและรัฐบาลเกาหลีใต้ร่วมกันเป็นเจ้าภาพเมื่อเดือนกุมภาพันธ์ 2024, Google, OpenAI และบริษัทอื่นๆ ได้ลงนามใน Frontier AI Safety Commitments ผู้ลงนามให้คำมั่นว่าจะ “รายงานต่อสาธารณะ” ถึงความสามารถของระบบและการประเมินความเสี่ยง และอธิบายว่ามีบุคคลภายนอก เช่น หน่วยงานรัฐบาล เข้ามาเกี่ยวข้องกับการทดสอบหรือไม่และอย่างไร หากไม่มีกฎระเบียบที่ผูกมัด ประชาชนและสมาชิกสภานิติบัญญัติก็ได้อาศัยข้อมูลส่วนใหญ่ที่มาจากคำมั่นสัญญาโดยสมัครใจเพื่อทำความเข้าใจความเสี่ยงใหม่ๆ ของ AI

ทว่า เมื่อ Google เปิดตัว Gemini 2.5 Pro เมื่อวันที่ 25 มีนาคม ซึ่งบริษัทกล่าวว่าเอาชนะระบบ AI คู่แข่งในเกณฑ์มาตรฐานอุตสาหกรรมด้วย “ระยะห่างที่มีนัยสำคัญ” บริษัทกลับละเลยที่จะเผยแพร่ข้อมูลโดยละเอียดเกี่ยวกับการทดสอบความปลอดภัยเป็นเวลานานกว่าหนึ่งเดือน จดหมายระบุว่าสิ่งนี้ไม่เพียงแต่สะท้อนถึง “ความล้มเหลวในการปฏิบัติตาม” คำมั่นสัญญาด้านความปลอดภัยระหว่างประเทศ แต่ยังคุกคามบรรทัดฐานที่เปราะบางซึ่งส่งเสริมการพัฒนา AI ที่ปลอดภัยยิ่งขึ้น “หากบริษัทชั้นนำอย่าง Google ถือว่าคำมั่นสัญญาเหล่านี้เป็นทางเลือก เราเสี่ยงที่จะเกิดการแข่งขันอันตรายในการนำ AI ที่ทรงพลังมากขึ้นมาใช้งานโดยไม่มีการป้องกันที่เหมาะสม” Browne เขียนในแถลงการณ์ที่มาพร้อมกับจดหมาย

“เรากำลังปฏิบัติตามคำมั่นสัญญาต่อสาธารณะของเรา รวมถึง Seoul Frontier AI Safety Commitments” โฆษกของ Google DeepMind กล่าวกับ TIME ผ่านแถลงการณ์ทางอีเมล “ในฐานะส่วนหนึ่งของกระบวนการพัฒนาของเรา โมเดลของเราผ่านการตรวจสอบความปลอดภัยอย่างเข้มงวด รวมถึงโดย UK AISI และผู้ทดสอบจากบุคคลที่สามอื่นๆ – และ Gemini 2.5 ก็ไม่มีข้อยกเว้น”

จดหมายเปิดผนึกเรียกร้องให้ Google กำหนดไทม์ไลน์ที่ชัดเจนสำหรับการแบ่งปันรายงานการประเมินความปลอดภัยสำหรับการเปิดตัวในอนาคต Google เผยแพร่ Model Card ของ Gemini 2.5 Pro ซึ่งเป็นเอกสารที่โดยปกติจะใช้แบ่งปันข้อมูลเกี่ยวกับการทดสอบความปลอดภัย เป็นครั้งแรก 22 วันหลังจากการเปิดตัวโมเดล อย่างไรก็ตาม เอกสารแปดหน้าดังกล่าวมีเพียงส่วนสั้นๆ เกี่ยวกับการทดสอบความปลอดภัย จนกระทั่งวันที่ 28 เมษายน – กว่าหนึ่งเดือนหลังจากที่โมเดลถูกเปิดเผยต่อสาธารณะ – Model Card จึงได้รับการอัปเดตด้วยเอกสาร 17 หน้าที่มีรายละเอียดเกี่ยวกับการประเมินเฉพาะทาง สรุปว่า Gemini 2.5 Pro แสดงให้เห็นถึงการปรับปรุงที่ “สำคัญ” แม้จะยังไม่เป็นอันตรายในด้านต่างๆ รวมถึงการแฮก การอัปเดตยังระบุถึงการใช้ “ผู้ทดสอบภายนอกจากบุคคลที่สาม” แต่ไม่ได้เปิดเผยว่าเป็นใครบ้าง หรือสถาบัน U.K. AI Security Institute อยู่ในกลุ่มนั้นหรือไม่ – ซึ่งจดหมายฉบับนี้อ้างถึงว่าเป็นส่วนหนึ่งของการละเมิดคำมั่นสัญญาของ Google ด้วย

หลังจากที่ก่อนหน้านี้ไม่สามารถตอบคำขอความเห็นว่าได้แบ่งปัน Gemini 2.5 Pro กับรัฐบาลเพื่อการทดสอบความปลอดภัยหรือไม่ โฆษกของ Google DeepMind ได้บอกกับ TIME ว่าบริษัทได้แบ่งปัน Gemini 2.5 Pro กับ U.K. AI Security Institute เช่นเดียวกับ “กลุ่มผู้เชี่ยวชาญภายนอกที่หลากหลาย” ซึ่งรวมถึง Apollo Research, Dreadnode และ Vaultis อย่างไรก็ตาม Google ระบุว่าได้แบ่งปันโมเดลนี้กับ U.K. AI Security Institute หลังจากที่ Gemini 2.5 Pro ถูกเปิดตัวเมื่อวันที่ 25 มีนาคมแล้วเท่านั้น

เมื่อวันที่ 3 เมษายน ไม่นานหลังจากการเปิดตัว Gemini 2.5 Pro, Tulsee Doshi ผู้อำนวยการอาวุโสและหัวหน้าฝ่ายผลิตภัณฑ์สำหรับ Gemini ของ Google, บอกกับ TechCrunch ว่าสาเหตุที่ไม่มีรายงานความปลอดภัยเป็นเพราะโมเดลดังกล่าวเป็นการเปิดตัวแบบ “ทดลอง” โดยเสริมว่าได้มีการทดสอบความปลอดภัยไปแล้ว เธอกล่าวว่าเป้าหมายของการเปิดตัวทดลองเหล่านี้คือการเผยแพร่โมเดลในวงจำกัด รวบรวมความคิดเห็นจากผู้ใช้ และปรับปรุงก่อนการเปิดตัวเชิงพาณิชย์ ซึ่งเมื่อถึงเวลานั้น บริษัทจะเผยแพร่ Model Card ที่มีรายละเอียดการทดสอบความปลอดภัยที่ดำเนินการไปแล้ว ทว่า เพียงไม่กี่วันก่อนหน้านั้น Google ได้เปิดตัวโมเดลนี้ให้กับผู้ใช้ฟรีทั้งหมด โดยกล่าวว่า “เราต้องการส่งมอบโมเดลที่ฉลาดที่สุดของเราสู่มือผู้คนให้เร็วที่สุด” ในโพสต์บน X

จดหมายเปิดผนึกระบุว่า “การติดป้ายกำกับโมเดลที่เข้าถึงได้สาธารณะว่าเป็น ‘ทดลอง’ ไม่ได้ปลดเปลื้อง Google จากภาระผูกพันด้านความปลอดภัย” และยังเรียกร้องให้ Google กำหนดคำจำกัดความของการนำไปใช้งานที่สมเหตุสมผลมากขึ้น “บริษัทมีหน้าที่รับผิดชอบอย่างใหญ่หลวงต่อสาธารณะในการทดสอบเทคโนโลยีใหม่ๆ และไม่ควรให้ประชาชนเข้ามามีส่วนร่วมในการทดลอง” Steven Croft, Bishop of Oxford ซึ่งเป็นผู้ลงนามในจดหมายกล่าว “ลองนึกภาพผู้ผลิตรถยนต์ที่ปล่อยยานพาหนะออกมาโดยกล่าวว่า ‘เราต้องการให้ประชาชนได้ทดลองและ [ให้] ข้อเสนอแนะเมื่อพวกเขาชน หรือเมื่อพวกเขาชนคนเดินเท้า และเมื่อเบรกไม่ทำงาน’” เขากล่าวเสริม

Croft ตั้งคำถามถึงข้อจำกัดในการจัดทำรายงานความปลอดภัย ณ เวลาที่เปิดตัว โดยสรุปประเด็นนี้ว่าเกี่ยวกับลำดับความสำคัญ: “เงินลงทุนมหาศาลของ [Google] ใน AI จำนวนเท่าใดที่ถูกนำไปใช้เพื่อความปลอดภัยและความมั่นใจของสาธารณะ และจำนวนเท่าใดที่ถูกนำไปใช้เพื่อพลังประมวลผลมหาศาล?”

แน่นอนว่า Google ไม่ใช่ยักษ์ใหญ่ในอุตสาหกรรมเพียงรายเดียวที่ดูเหมือนจะละเมิดคำมั่นสัญญาด้านความปลอดภัย xAI ยังไม่ได้เผยแพร่รายงานความปลอดภัยใดๆ สำหรับ Grok 4 ซึ่งเป็นโมเดล AI ที่เปิดตัวเมื่อเดือนกรกฎาคม ซึ่งแตกต่างจาก GPT-5 และการเปิดตัวอื่นๆ ล่าสุด การเปิดตัวเครื่องมือ Deep Research ของ OpenAI เมื่อเดือนกุมภาพันธ์ขาดรายงานความปลอดภัยในวันเดียวกัน บริษัทกล่าวว่าได้ดำเนินการ “ทดสอบความปลอดภัยอย่างเข้มงวด” แต่ไม่ได้เผยแพร่รายงานจนกระทั่ง 22 วันให้หลัง

Joseph Miller ผู้อำนวยการของ PauseAI U.K. กล่าวว่าองค์กรมีความกังวลเกี่ยวกับการละเมิดที่ชัดเจนในกรณีอื่นๆ และการมุ่งเน้นไปที่ Google เนื่องมาจากความใกล้ชิด DeepMind ซึ่งเป็นห้องปฏิบัติการ AI ที่ Google เข้าซื้อกิจการในปี 2014 ยังคงมีสำนักงานใหญ่ในลอนดอน รัฐมนตรีกระทรวงวิทยาศาสตร์ นวัตกรรม และเทคโนโลยีของสหราชอาณาจักร (ซึ่งในที่นี้ต้นฉบับไม่ได้ระบุชื่อ) กล่าวในการหาเสียงในปี 2024 ว่าเขาจะ (บังคับ) บริษัท AI ชั้นนำให้แบ่งปันผลการทดสอบความปลอดภัย แต่ในเดือนกุมภาพันธ์มีรายงานว่าแผนการของสหราชอาณาจักรในการควบคุม AI ถูกเลื่อนออกไป เนื่องจากต้องการปรับให้สอดคล้องกับแนวทางแบบไม่เข้าแทรกแซงของรัฐบาล Trump มากขึ้น Miller กล่าวว่าถึงเวลาแล้วที่จะเปลี่ยนคำมั่นสัญญาของบริษัทเป็น “กฎระเบียบที่แท้จริง” โดยเสริมว่า “คำมั่นสัญญาโดยสมัครใจไม่สามารถใช้งานได้ผล”

บทความนี้ให้บริการโดยผู้ให้บริการเนื้อหาภายนอก SeaPRwire (https://www.seaprwire.com/) ไม่ได้ให้การรับประกันหรือแถลงการณ์ใดๆ ที่เกี่ยวข้องกับบทความนี้

หมวดหมู่: ข่าวสําคัญ ข่าวประจําวัน

SeaPRwire จัดส่งข่าวประชาสัมพันธ์สดให้กับบริษัทและสถาบัน โดยมียอดการเข้าถึงสื่อกว่า 6,500 แห่ง 86,000 บรรณาธิการและนักข่าว และเดสก์ท็อปอาชีพ 3.5 ล้านเครื่องทั่ว 90 ประเทศ SeaPRwire รองรับการเผยแพร่ข่าวประชาสัมพันธ์เป็นภาษาอังกฤษ เกาหลี ญี่ปุ่น อาหรับ จีนตัวย่อ จีนตัวเต็ม เวียดนาม ไทย อินโดนีเซีย มาเลเซีย เยอรมัน รัสเซีย ฝรั่งเศส สเปน โปรตุเกส และภาษาอื่นๆ