พบ ‘ทรีนด์สลอป’ ภัยใหม่ที่ถูกกล่าวหาว่าได้รับพลังจาก AI ที่กำลังทำให้ผู้ให้คำปรึกษาทางธุรกิจกระสับกระส่ายทั่วไป

(SeaPRwire) –   นักเศรษฐศาสตร์ Mariana Mazzucato และ Rosie Collington ให้เหตุผลว่าที่ปรึกษาสามารถให้คำแนะนำที่น่าสงสัยได้ในดีที่สุด และในแย่ที่สุดก็ทำให้ความผิดปกติของรัฐบาลและภาคเอกชนรุนแรงขึ้น ในหนังสือของพวกเขา The Big Con: How the Consulting Industry Weakens Our Businesses, Infantilizes Our Governments, and Warps Our Economies, นักเศรษฐศาสตร์ให้เหตุผลว่าที่ปรึกษาเกิดขึ้นในยุคหลัง Ronald Reagan ที่กฎระเบียบลดลง ทำให้จำเป็นต้องมีบุคคลที่สามเข้ามาช่วยเหลือสถาบันต่างๆ ที่สูญเสียความเชื่อมั่นในตัวเอง

แทนที่จะแก้ไขสถานการณ์ให้ถูกต้อง Mazzucato และ Collington ให้เหตุผลว่าที่ปรึกษาเหล่านี้สร้างเพียง “ภาพลวงตาของคุณค่า” ภาพลวงตาของความช่วยเหลือ และสิ่งอื่นๆ น้อยมาก ในขณะที่รัฐบาลและบริษัทเอกชนใช้เงินจำนวนมากเพื่อจ้างพวกเขา

ในยุคของ AI ที่สัญญาว่าจะช่วยบริษัทประหยัดเงินโดยการทำงานออฟฟิศอัตโนมัติ การใช้แชทบอตเพื่อขอคำแนะนำอาจเป็นทางเลือกที่น่าสนใจสำหรับบริษัทที่ไม่เต็มใจหรือไม่สามารถจ่ายเงินให้กับที่ปรึกษาอีกต่อไป แต่การวิจัยที่เกิดขึ้นใหม่แสดงให้เห็นว่าในขณะที่คุณสามารถถาม AI ในสิ่งที่คุณต้องการจากที่ปรึกษาได้ในราคาที่ถูกกว่ามาก คำแนะนำของมันอาจไม่คุ้มค่าที่จะรับฟังเช่นกัน ในความเป็นจริง ความช่วยเหลือจาก AI อาจเพียงแค่นำเสนอปัญหาเดิมในรูปแบบใหม่

การศึกษาล่าสุดที่นำโดย Esade Business School ที่ Universitat Ramon Llull ในบาร์เซโลนาพบว่าเมื่อโมเดลภาษาขนาดใหญ่ (LLMs) ต่างๆ ถูกขอให้ให้คำแนะนำเกี่ยวกับปัญหาที่ทำงาน พวกมันมักจะให้คำตอบที่สอดคล้องกับคำศัพท์ยอดนิยมมากที่สุด แทนที่จะให้คำแนะนำที่สอดคล้องกับสถานการณ์ได้ดีที่สุด นักวิจัยเรียกแนวโน้มของ AI ที่จะโน้มเอียงไปใช้ศัพท์แสงเดียวกันเพื่อตัดสินใจว่า “trendslop”

“LLM ไม่ใช่เพื่อนร่วมงานที่ประเมินความคิดปัจจุบันอย่างมีวิจารณญาณ ดูรายละเอียดเฉพาะบริบท ทดสอบสมมติฐาน และโต้แย้งเมื่อทุกคนเริ่มสบายใจ” ผู้เขียนการศึกษากล่าวไว้ในโพสต์ Harvard Business Review ที่สรุปการวิจัยของพวกเขา “ในด้านกลยุทธ์ LLMs อาจคล้ายกับผู้ที่เพิ่งจบ MBA ใหม่ๆ หรือที่ปรึกษาระดับจูเนียร์ ที่พูดตามสิ่งที่กำลังเป็นที่นิยมมากกว่าสิ่งที่เหมาะสมกับสถานการณ์เฉพาะ”

การปลดพนักงานล่าสุดในบรรดาบริษัทที่ปรึกษา Big Four ท่ามกลางการชะลอตัวของอุตสาหกรรมที่กว้างขึ้น ชี้ให้เห็นว่าบริษัทต่างๆ อาจกำลังสูญเสียคุณค่าในสายตาของลูกค้าที่มีศักยภาพแล้ว PwC ตัดตำแหน่งพนักงานสนับสนุนธุรกิจ 150 ตำแหน่งในเดือนพฤศจิกายน 2025 ในช่วงเวลาเดียวกับที่ McKinsey ปลดพนักงานหลายร้อยตำแหน่ง

“ในขณะที่บริษัทของเรากำลังก้าวเข้าสู่ปีที่ 100 เรากำลังดำเนินงานในช่วงเวลาที่ถูกหล่อหลอมด้วยความก้าวหน้าอย่างรวดเร็วของ AI ที่กำลังเปลี่ยนแปลงธุรกิจและสังคม” โฆษกของ McKinsey กล่าวกับ Bloomberg เมื่อปีที่แล้ว

แต่การเกิดขึ้นของ “trendslop” ชี้ให้เห็นว่า AI ยังห่างไกลจากความสามารถในการให้ทิศทางแก่บริษัทที่แสวงหาคำปรึกษาจากเทคโนโลยีนี้ และการวิจัยนี้เผยให้เห็นอคติที่ LLMs ต่อสู้อยู่

วิธีที่ ‘trendslop’ แสดงออก

เพื่อวัดแนวโน้มของ AI ในการให้คำตอบที่สอดคล้องกับแนวโน้มมากกว่าเหตุผล นักวิจัยได้ทดสอบโมเดลเจ็ดรุ่น รวมถึง GPT-5, Claude, Gemini และ Grok ผ่านการจำลองและสถานการณ์ 15,000 รายการ โมเดลถูกขอให้เลือกระหว่างสองวิธีแก้ไขเมื่อถูกนำเสนอด้วยความตึงเครียดในที่ทำงาน เช่น บริษัทควรให้ความสำคัญกับการเติบโตระยะยาวเทียบกับระยะสั้น หรือบริษัทควรใช้เทคโนโลยีเพื่อทำให้งานของพนักงานเป็นอัตโนมัติเทียบกับการเสริมสร้าง

นักวิจัยทำนายว่าหาก LLMs ให้คำแนะนำตามรายละเอียดเฉพาะสถานการณ์ จะมีความหลากหลายในวิธีแก้ไขที่โมเดลเลือก แต่แทนที่จะเป็นเช่นนั้น โมเดลทั้งเจ็ดมักจะรวมคำตอบของพวกเขารอบกลยุทธ์เดียวกัน ซึ่งบ่งบอกถึงความชอบใน “คำศัพท์ยอดนิยมทางการจัดการสมัยใหม่และภาพลักษณ์ทางวัฒนธรรม”

แม้เมื่อนักวิจัยเปลี่ยนถ้อยคำของคำสั่งหรือขอให้วิเคราะห์ข้อดีข้อเสีย โมเดล AI ในหลายกรณีก็แสดงความชอบอย่างมากต่อกลยุทธ์ธุรกิจที่คล้ายกัน ผู้เขียนการศึกษาระบุว่าการพึ่งพา AI เป็นที่ปรึกษาจะไม่ส่งผลให้ได้โซลูชันธุรกิจที่ออกแบบเฉพาะ แต่จะได้โซลูชันแบบสำเร็จรูปที่มันสามารถเสนอให้กับธุรกิจใดๆ ก็ได้เมื่อถูกถาม โดยไม่คำนึงถึงรายละเอียดเฉพาะของความท้าทายที่นำเสนอ

“นี่เผยให้เห็นความเสี่ยงที่แท้จริงสำหรับผู้นำ” นักวิจัยกล่าว “LLM สามารถฟังดูเหมือนปรับแต่งให้เหมาะกับสถานการณ์ของคุณเป็นอย่างดี ในขณะที่ค่อยๆ นำคุณไปสู่กลุ่มแนวโน้มการจัดการสมัยใหม่กลุ่มเล็กๆ เดียวกันอย่างเงียบๆ”

เปิดโปงอคติของ LLM

แนวโน้ม “trendslop” ของ LLMs เป็นผลมาจากอคติที่พวกมันได้รับเมื่อโมเดลถูกฝึกฝน นักวิจัยระบุ เนื่องจาก LLMs ถูกฝึกฝนด้วยข้อมูลกองใหญ่ตั้งแต่ข้อความบนอินเทอร์เน็ต โซเชียลมีเดีย ไปจนถึงข่าว พวกมันจึงมีแนวโน้มที่จะยึดติดกับความหมายเชิงบวกหรือลบที่เชื่อมโยงกับวลีหรือแนวคิดบางอย่าง โดยมองว่า “commoditization” (การทำให้เป็นสินค้าโภคภัณฑ์) เป็นสิ่งที่ล้าสมัยและเป็นลบ และมองว่า “augmentation” (การเสริมสร้าง) เป็นสิ่งที่ก้าวหน้าและเป็นบวก

กล่าวอีกนัยหนึ่ง เมื่อถูกขอให้ให้คำแนะนำเกี่ยวกับสถานการณ์ที่ทำงานที่ยุ่งยาก AI ไม่ได้วิเคราะห์สถานการณ์ที่ถาม แต่กำลังย้อนกลับไปใช้คำสำคัญตามความถี่ที่มันพบเจอขณะถูกฝึกด้วยข้อมูล ในกรณีของ ChatGPT การศึกษาระบุว่า บอทบางครั้งปฏิเสธที่จะให้ตัวเลือกแบบสองทาง แทนที่จะแนะนำทั้งสองวิธีแก้ไข การวิจัยที่ตีพิมพ์ใน Nature เมื่อปีที่แล้วพบว่าการประจบสอพลอของ AI ไม่เพียงแต่ไม่เกิดผลผลิต แต่ยังสามารถเป็นอันตรายต่อวิทยาศาสตร์ โดยเป็นการยืนยันอคติของผู้ที่ป้อนคำสั่งให้มัน แทนที่จะนำเสนอข้อมูลที่สนับสนุนจากวรรณกรรมวิทยาศาสตร์หรือแหล่งข้อมูลที่น่าเชื่อถือและเป็นกลางมากกว่าให้กับผู้ใช้

นักวิจัย “trendslop” ไม่ได้ปฏิเสธการใช้ LLMs ในการจัดการสถานการณ์ที่ทำงานที่ยุ่งยากโดยสิ้นเชิง พวกเขาแนะนำว่าโมเดลยังคงสามารถช่วยในการสร้างโซลูชันทางเลือกหรือระบุจุดบอดในสถานการณ์บางอย่างได้ หากคุณตระหนักถึงอคติของ AI ที่มีต่อแนวคิดต่างๆ เช่น การเสริมสร้างหรือการวางกลยุทธ์ระยะยาว คุณสามารถท้าทายอคติเหล่านั้นเพื่อเปิดเผยคำแนะนำที่ลึกซึ้งยิ่งขึ้น ตามการศึกษา

“ความเป็นผู้นำในท้ายที่สุดคือการตัดสินใจเลือกที่ยากลำบากภายใต้เงื่อนไขของความไม่แน่นอนและรับผิดชอบต่อการเลือกนั้น” นักวิจัยกล่าว “AI ไม่สามารถและไม่ควรเป็นตัวแทนได้”

บทความนี้ให้บริการโดยผู้ให้บริการเนื้อหาภายนอก SeaPRwire (https://www.seaprwire.com/) ไม่ได้ให้การรับประกันหรือแถลงการณ์ใดๆ ที่เกี่ยวข้องกับบทความนี้

หมวดหมู่: ข่าวสําคัญ ข่าวประจําวัน

SeaPRwire จัดส่งข่าวประชาสัมพันธ์สดให้กับบริษัทและสถาบัน โดยมียอดการเข้าถึงสื่อกว่า 6,500 แห่ง 86,000 บรรณาธิการและนักข่าว และเดสก์ท็อปอาชีพ 3.5 ล้านเครื่องทั่ว 90 ประเทศ SeaPRwire รองรับการเผยแพร่ข่าวประชาสัมพันธ์เป็นภาษาอังกฤษ เกาหลี ญี่ปุ่น อาหรับ จีนตัวย่อ จีนตัวเต็ม เวียดนาม ไทย อินโดนีเซีย มาเลเซีย เยอรมัน รัสเซีย ฝรั่งเศส สเปน โปรตุเกส และภาษาอื่นๆ