ถ้าฉันขอให้คุณแสดงให้ฉันดูว่าองค์กรของคุณตัดสินใจอย่างไรว่าการตัดสินใจใดบ้างที่ควรคงไว้ซึ่งความเป็นมนุษย์ คุณจะแสดงอะไรให้ฉันดู?
ไม่ใช่นโยบายการกำกับดูแล AI ของคุณ ไม่ใช่กรอบความรับผิดชอบของคุณ แต่เป็นบันทึกการตัดสินใจจริงที่แสดงให้เห็นว่า “งานนี้ต้องการบริบทและการตัดสินใจของมนุษย์ งานนี้ไม่ต้องการ นี่คือเหตุผล”
คำถามนี้ไม่ค่อยมีคนถามกันเท่าไหร่ ธุรกิจต่างรีบเร่งที่จะแสดงให้เห็นถึงการประหยัดต้นทุนและประสิทธิภาพ.
ดารอน อาเซโมกลู ผู้ได้รับรางวัลโนเบลสาขาเศรษฐศาสตร์ในปี 2024เพิ่งอธิบายถึงสาเหตุว่า แรงจูงใจในปัจจุบันมักมุ่งเน้นไปที่ระบบอัตโนมัติมากกว่าการเสริมศักยภาพ ผู้นำไม่ได้เลือกเส้นทางนั้นอย่างมีสติ แต่พวกเขาเดินตามเส้นทางนั้นไปเอง
ดารอน อาเซโมกลู นักเศรษฐศาสตร์รางวัลโนเบล กล่าวไว้อย่างชัดเจนในพอดแคสต์ของ MIT Sloan เมื่อเร็วๆ นี้ว่า ปัญญาประดิษฐ์ไม่ได้ช่วยเพิ่มผลผลิต.
ไม่ใช่เพราะ AI ไม่สามารถเพิ่มประสิทธิภาพการทำงานได้ องค์กรส่วนใหญ่ใช้ AI ภายใต้แรงจูงใจที่เอื้อต่อการทำงานอัตโนมัติมากกว่าการเสริมศักยภาพ ส่งผลให้ AI เข้ามาแทนที่คนงานแทนที่จะเพิ่มศักยภาพให้พวกเขา.
เขาโต้แย้งว่าเทคโนโลยีไม่มีชะตากรรมที่ตายตัว ทางเลือกในปัจจุบันจะเป็นตัวกำหนดว่าปัญญาประดิษฐ์จะช่วยเพิ่มขีดความสามารถของมนุษย์หรือเพียงแค่เร่งให้เกิดระบบอัตโนมัติและความเหลื่อมล้ำมากขึ้น.
ผู้นำส่วนใหญ่ที่ผมทำงานด้วยในสิงคโปร์ไม่ได้เลือกอย่างตั้งใจ แต่พวกเขาปฏิบัติตามแนวทางนั้น.
พวกเขาถามว่า:
นี่เป็นคำถามเชิงยุทธวิธี ส่วนคำถามเชิงกลยุทธ์กลับไม่มีใครถาม คือ งานประเภทใดที่ต้องอาศัยการตัดสินใจของมนุษย์ บริบท และความรับผิดชอบต่อผลลัพธ์ และงานประเภทใดที่ไม่ต้องอาศัยสิ่งเหล่านี้?
ดังนั้นขอบเขตจึงถูกกำหนดโดยทีมไอทีที่ให้ความสำคัญกับตัวชี้วัดประสิทธิภาพ ผู้ขายที่จำหน่ายแพลตฟอร์มระบบอัตโนมัติ และที่ปรึกษาที่มุ่งเน้นการลดต้นทุน.
จากนั้น โดยปกติแล้วประมาณหกเดือนต่อมา มักจะมีบางอย่างผิดปกติเกิดขึ้น.
ถึงเวลานั้น ความสามารถของมนุษย์ที่เคยตรวจจับปัญหาเหล่านั้นได้ก็หายไปแล้ว ทีมงานที่รู้วิธีตัดสินใจในเรื่องเหล่านั้นได้จากไปแล้ว บางคนได้รับการฝึกอบรมใหม่ บางคนถูกโยกย้ายไปทำงานที่อื่น หรือบางคนก็ถูกแทนที่ไปแล้ว.
คุณกำลังจัดการกับผลที่ตามมาซึ่งคุณสามารถป้องกันได้.
นับจำนวนโครงการ AI ในแผนงานของคุณตอนนี้ดูสิ.
มีกี่คนที่เริ่มต้นด้วยคำถามว่า “งานนี้ควรใช้ระบบอัตโนมัติ หรือจำเป็นต้องมีคนที่มีความรู้ ความเข้าใจ และความรับผิดชอบต่อผลลัพธ์เข้ามาช่วย?”
ถ้าคำตอบคือ "ไม่มี" แสดงว่าคุณไม่ได้เลือกใช้ระบบอัตโนมัติ แต่คุณกำลังยอมรับมันเป็นค่าเริ่มต้น.
ลองนึกภาพว่านี่คือปัญหาการบานปลายที่กลับด้าน แทนที่การตัดสินใจที่ไม่ควรมาตกอยู่ที่โต๊ะทำงานของคุณ การตัดสินใจเหล่านั้นกลับถูกส่งออกจากองค์กรของคุณไปยังอัลกอริทึมที่ไม่ควรถูกส่งไปเช่นกัน.
อาเซโมกลูพูดถูกแล้ว แรงจูงใจในปัจจุบันผลักดันไปสู่ระบบอัตโนมัติโดยปริยาย ผู้ขายขายประสิทธิภาพ ที่ปรึกษาเน้นการปรับให้เหมาะสมกับต้นทุน โครงการนำร่องวัดผลจากเวลาที่ประหยัดได้ ไม่ใช่จากมูลค่าที่รักษาไว้.
แต่สิ่งนั้นไม่ใช่สิ่งที่หลีกเลี่ยงไม่ได้ มันเป็นทางเลือกในการออกแบบที่คุณไม่ได้เลือกอย่างมีสติ.
ผมใช้ระบบ CAS ร่วมกับลูกค้าเพื่อกำหนดขอบเขตนี้ก่อนที่พวกเขาจะนำ AI ไปใช้งาน ไม่ใช่หลังจากนั้น.
งานประเภทใดที่ต้องอาศัยวิจารณญาณของมนุษย์ บริบทชีวิต ความเข้าใจในวัฒนธรรม และความรับผิดชอบต่อผลลัพธ์จึงจะประสบความสำเร็จ? งานประเภทใดที่เป็นงานเชิงกลอย่างแท้จริงและสามารถจัดระบบได้โดยไม่สูญเสียอะไรไป?
ใครเป็นผู้ตัดสินใจว่าขอบเขตนั้นควรอยู่ตรงไหน? เรื่องนี้ไม่สามารถมอบหมายให้ฝ่ายไอที ฝ่ายจัดซื้อ หรือผู้ขายได้ นี่เป็นการตัดสินใจระดับผู้นำเชิงกลยุทธ์.
คุณจะรักษาขอบเขตนั้นไว้ได้อย่างไรเมื่อแรงกดดันในการใช้ระบบอัตโนมัติเพิ่มมากขึ้น? โครงสร้างแบบใดที่ช่วยให้การตัดสินใจมีความชัดเจน แทนที่จะปล่อยให้มันเปลี่ยนแปลงไปเอง?
ลองดูโครงการนำร่อง AI ที่กำลังดำเนินการอยู่ในองค์กรของคุณตอนนี้สิ.
บางอย่างเป็นเรื่องเชิงกลอย่างแท้จริง ซึ่งความเร็วและขนาดมีความสำคัญ การตรวจจับและแก้ไขข้อผิดพลาดทำได้ง่ายและมีต้นทุนต่ำ และไม่จำเป็นต้องมีบริบททางวัฒนธรรมใดๆ.
บางอย่างดูเหมือนเป็นกระบวนการเชิงกลไกบนแผนผัง แต่ต้องอาศัยวิจารณญาณจึงจะทำได้ดี บริบททางวัฒนธรรม ประวัติความสัมพันธ์ ความเข้าใจในสิ่งที่สำคัญต่อธุรกิจนอกเหนือจากตัวชี้วัดที่อัลกอริทึมสามารถมองเห็นได้.
หากคุณไม่สามารถกำหนดขอบเขตนั้นได้อย่างชัดเจน คุณก็ไม่ได้กำลังควบคุม AI อย่างแท้จริง คุณกำลังมอบหมายงานโดยปริยาย ไม่ใช่โดยการวางแผนไว้ล่วงหน้า.
ช่องว่างระหว่าง “สามารถทำให้เป็นระบบอัตโนมัติได้” กับ “ควรทำเป็นระบบอัตโนมัติ” คือจุดที่องค์กรสูญเสียความสามารถที่ไม่ได้ตั้งใจจะมอบให้ เมื่อการสูญเสียนั้นปรากฏชัด ทีมงานที่เคยให้บริการนั้นก็จากไปแล้ว ถูกฝึกอบรมใหม่ ถูกโยกย้ายไปทำงานอื่น หรือถูกแทนที่ไปแล้ว.
หากคุณกำลัง นำ AI มาใช้ แต่ยังไม่ได้ตัดสินใจอย่างชัดเจนว่างานใดควรให้มนุษย์ทำต่อไป คุณกำลังทำการตัดสินใจโดยการละเว้น
ข้อโต้แย้งของ Acemoglu คือเรื่องนี้สำคัญเกินกว่าแค่ภายในบริษัทของคุณ ผลกระทบสะสมจากการที่ผู้นำหันไปใช้ระบบอัตโนมัติโดยปริยายคือ AI จะเร่งให้เกิดความเหลื่อมล้ำมากกว่าความเจริญรุ่งเรืองที่กระจายไปทั่วถึง แต่ทั้งหมดเริ่มต้นจากทางเลือกของแต่ละบุคคล.
คำถามไม่ใช่ว่า “AI ทำสิ่งนี้ได้หรือไม่?” แต่เป็น “AI ควรทำเช่นนั้นหรือไม่?”
หากงานนั้นต้องการคนที่มีประสบการณ์ในอุตสาหกรรมของคุณ เข้าใจวัฒนธรรมของคุณ หรือรับผิดชอบต่อผลลัพธ์ งานนั้นคืองานของมนุษย์ จงสร้าง AI ให้สอดคล้องกับงานนั้น ไม่ใช่สร้าง AI แทรกแซงงานนั้น.
หากคุณไม่แน่ใจว่าขอบเขตนั้นอยู่ตรงไหน นั่นเป็นเรื่องของภาวะผู้นำ ไม่ใช่เรื่องทางเทคนิค.
หากคุณไม่แน่ใจว่าขอบเขตนั้นอยู่ตรงไหน ต้นทุนของการเดาผิดนั้นสูงกว่าต้นทุนของการกำหนดขอบเขตให้ถูกต้อง.