องค์กรไทยควรลงทุนเพื่อทำให้ AI ปลอดภัย - Forbes Thailand

องค์กรไทยควรลงทุนเพื่อทำให้ AI ปลอดภัย

FORBES THAILAND / ADMIN
31 May 2024 | 09:30 AM
READ 1877

ปัญญาประดิษฐ์ (AI) ไม่เพียงแต่นำมาซึ่งโอกาสอันไร้ขีดจำกัด แต่ยังถือว่าเป็นความท้าทายที่ยิ่งใหญ่และมีผลพวงต่างๆ มากมาย แท้จริงแล้วกลุ่มคนผู้คิดค้นเทคโนโลยีที่กำลังก่อให้เกิดการเปลี่ยนแปลงแบบฉับพลันรุนแรงนี้คือ คนกลุ่มเดียวกันที่กำลังเรียกร้องด้วยเสียงอันดังมากที่สุดให้มีการกำกับดูแลเทคโนโลยีนี้


    ศูนย์เพื่อความปลอดภัยทางปัญญา-ประดิษฐ์ (The Center for AI Safety) คือ ตัวอย่างหนึ่งขององค์กรที่ก้าวไปไกลถึงขนาดมีการเรียกร้องให้การบริหารจัดการความเสี่ยงโอกาสในการสูญพันธุ์ของมนุษย์จาก AI เป็นสิ่งที่มีลำดับความสำคัญต้นๆ ในระดับโลก เทียบเท่าความเสี่ยงที่มีผลกระทบในวงกว้างอื่นๆ เช่น การเกิดการระบาดใหญ่ของโรค หรือสงครามนิวเคลียร์

    แถลงการณ์ฉบับนี้ได้มีการร่วมลงนามโดยผู้เชี่ยวชาญและผู้บริหารที่มีชื่อเสียงด้าน AI จากบริษัทเทคโนโลยี รวมถึงมหาอำนาจทาง AI เช่น OpenAI, Google, Microsoft และอื่นๆ อีกมากมาย เพื่อรับมือกับภัยคุกคามนี้รัฐบาลในประเทศต่างๆ ทั่วโลกกำลังผลักดันให้มีการผ่านร่างกฎหมายเพื่อกำกับดูแล AI โดยมีสหภาพยุโรปเป็นหัวหอก

    ปัจจุบันมีมาตรการที่กำลังถูกพิจารณาอยู่กว่า 800 รายการ โดยรัฐบาลของประเทศในสหภาพยุโรปรวมถึงประเทศและดินแดนอื่นๆ รวมกว่า 60 แห่ง ขณะที่ผลการศึกษาของ BCG พบว่า บริษัทส่วนใหญ่จะใช้เวลาโดยเฉลี่ย 3 ปีในการผลักดันโครงการความรับผิดชอบทางด้านปัญญาประดิษฐ์ (RAI) แต่ละโครงการให้ออกมาได้อย่างสมบูรณ์ ซึ่งหมายความว่าภาคเอกชนนั้นเหลือเวลาอีกไม่มากแล้วในการเตรียมรับมือกับโลกที่จะมีการออกกฎระเบียบควบคุมทาง AI

    อย่างไรก็ตามในขณะที่ภาครัฐกำลังเดินรุดหน้าต่อ องค์กรต่างๆ ในภาคเอกชนไม่สามารถก้าวตามไปได้ทัน ผลการประเมินความพร้อมทางดิจิทัล (Digital Acceleration Index: DAI) โดย BCG ซึ่งมีการจัดทำเป็นปีที่ 6 พบว่า จากจำนวนผู้บริหารที่ตอบแบบสอบถามทั่วโลกกว่า 2,700 ราย มีเพียงร้อยละ 28 ที่รู้สึกว่าองค์กรของพวกเขามีความพร้อมในการรับมือกับกฎระเบียบใหม่ๆ เหล่านี้แล้วอย่างแท้จริง

    สิ่งที่น่าสนใจคือ บริษัทในภูมิภาคเอเชีย-แปซิฟิกดูเหมือนจะเตรียมตัวรับมือกับกฎระเบียบด้าน AI มากกว่าบริษัทในยุโรป ยกตัวอย่างเช่น ในขณะที่ร้อยละ 48 ของบริษัทในเอเชีย-แปซิฟิกยอมรับว่ากฎระเบียบนั้นมีความจำเป็นต้องออกมาเพื่อทำให้เกิดความรับผิดชอบทาง AI มีเพียงร้อยละ 35 ของบริษัทในยุโรปที่เห็นพ้องในเรื่องนี้ นอกจากนี้ ร้อยละ 35 ของบริษัทในเอเชีย-แปซิฟิกยังมีแนวโน้มที่จะว่าจ้างเจ้าหน้าที่ด้านจริยธรรม AI เมื่อเทียบกับร้อยละ 25 ของบริษัทในยุโรป และร้อยละ 23 ของบริษัทในทวีปอเมริกาเหนือ

    แล้วในส่วนของประเทศไทยนั้นเป็นอย่างไร?

    เช่นเดียวกับประเทศอื่นๆ ในภูมิภาคนี้ผู้บริหารขององค์กรไทยไม่จำเป็นต้องถูกโน้มน้าวให้เห็นถึงความจำเป็น ไทยไม่สามารถหลีกเลี่ยงได้ของการมีกฎระเบียบเพื่อควบคุมดูแล AI เพราะร้อยละ 89 ของพวกเขามีความเชื่อเช่นนี้อยู่แล้ว โดยมีเหตุผลสำคัญที่พวกเขายกขึ้นมาว่าเป็นความสำคัญในลำดับต้นๆ เช่น ประเด็นด้านความเป็นส่วนตัวทางข้อมูล การรักษาสภาพชีวิตความเป็นอยู่ที่ดีของมนุษย์ ความเท่าเทียม เป็นธรรม ความปลอดภัยและความน่าเชื่อถือ และความกลัวว่า AI จะเข้ามาแย่งงานมนุษย์ เป็นต้น

    แต่ถึงกระนั้นก็ตามมีผู้บริหารไม่ถึงร้อยละ 10 ที่เชื่อว่าองค์กรของพวกเขามีความพร้อมรับมือกับการใช้ AI ในโลกที่มีการควบคุมและดูแล BCG เชื่อมั่นว่ายังไม่สายเกินไปสำหรับองค์กรไทยที่จะก้าวตามให้ทันองค์กรอื่นๆ ในภูมิภาคนี้ ทว่าสิ่งนี้จำเป็นต้องอาศัยการลงมือปฏิบัติและการลงทุนอย่างแน่วแน่ ในมุมมองของเรานั้นการลงทุนใน RAI ไม่ได้เป็นแค่เพียงการบริหารจัดการความเสี่ยง แต่ยังช่วยเปิดโอกาสใหม่ๆ ในการสร้างความแตกต่างอันจะนำมาสู่การเพิ่มมูลค่าให้กับผู้ถือหุ้น

    เพื่อช่วยให้องค์กรต่างๆ เริ่มต้นเส้นทางเดินสู่การเตรียมความพร้อมทาง RAI เราได้จัดทำแนวทาง 5 ประการที่ไม่ยุ่งยากซับซ้อนดังต่อไปนี้

    1. มอบอำนาจและบทบาทให้กับผู้นำโครงการความรับผิดชอบทางปัญญา-ประดิษฐ์ (RAI) ควรแต่งตั้งบุคคลที่มีความรู้ เช่น เจ้าหน้าที่จริยธรรมด้าน AI ให้สามารถชี้นำแนวความคิดริเริ่มใหม่ๆ หรือจัดทำนโยบายที่สอดคล้องกับค่านิยมทางสังคมขององค์กรและกฎระเบียบใหม่ๆ ที่กำลังออกมา และสามารถร่วมมือปฏิบัติงานกับบุคคลอื่นๆ ในตลอดทั่วทั้งเครือข่ายขององค์กรได้

    2. พัฒนาและปลูกฝังกรอบทางจริยธรรม AI เช่น การวางรากฐานด้านหลักการและนโยบาย เพื่อทำให้แน่ใจได้ว่าองค์กรจะสามารถปฏิบัติตามกฎระเบียบข้อบังคับที่เกี่ยวข้องทั้งหมดได้ และลดผลกระทบเชิงลบใดๆ ที่จะมีต่อผลการดำเนินงาน

    3. ส่งเสริมการมีส่วนร่วมของมนุษย์ในวงจรชีวิตการทำงานของ AI กฎระเบียบด้าน AI ส่วนใหญ่ที่มีอยู่ในปัจจุบันและที่ได้รับการนำเสนอในขณะนี้ล้วนเกี่ยวข้องกับการเรียกร้องให้มีการกำกับดูแลที่เข้มแข็งและความรับผิดชอบของบุคคล วงจรป้อนกลับฟีดแบ็ก กลไกในการทบทวนและช่องทางสำหรับรับการร้องเรียน สิ่งเหล่านี้ควรเป็นองค์ประกอบสำคัญในทุกโครงการที่เกี่ยวข้องกับความรับผิดชอบทาง AI

    4. ทบทวนโครงการความรับผิดชอบทางปัญญาประดิษฐ์ (RAI) บูรณาการเครื่องมือและวิธีการต่างๆ ในตลอดวงจรชีวิตของระบบ AI โดยมีเป้าหมายเพื่อตรวจจับและแก้ปัญหาให้ได้ ตั้งแต่ในช่วงแรกของการพัฒนาให้ได้มากที่สุดเท่าที่จะเป็นไปได้ และเพื่อความเข้มงวดทั้งในช่วงของการเริ่มนำมาใช้และหลังจากนั้น องค์กรที่สามารถเฝ้าระวังผลกระทบจาก AI ได้ตลอดวงจรชีวิตจะได้รับความไว้วางใจจากรัฐบาล ลูกค้าและผู้เกี่ยวข้องอื่นๆ

    5. มีส่วนร่วมในระบบนิเวศของโครงการความรับผิดชอบทางปัญญาประดิษฐ์ (RAI) มีส่วนร่วมอย่างแข็งขันในภาคีเครือข่าย RAI หรือคณะทำงานเพื่อส่งเสริมความร่วมมือ และการแบ่งปันแนวทางการปฏิบัติที่ดี โดยมองว่าเป็นการทำ crowdsourcing เพื่อเตรียมตัวรับมือกับกฎระเบียบ AI และจากการแบ่งปันประสบการณ์ระหว่างกัน ระบบนิเวศนี้จะช่วยให้มีข้อมูลเชิงลึกในการบริหารจัดการความเสี่ยงและเพื่อสร้างประโยชน์สูงสุดจาก AI

    การลงทุนในโครงการความรับผิดชอบทางปัญญาประดิษฐ์ (RAI) ล่วงหน้าก่อนการดำเนินการของภาครัฐนับเป็นสิ่งที่สมเหตุสมผลในทางธุรกิจ การก้าวนำการเปลี่ยนแปลงจะช่วยเพิ่มความชัดเจนและทำให้องค์กรสามารถควบคุมผลลัพธ์เพื่อธุรกิจของพวกเขาได้ดีกว่า โดยการเป็นส่วนหนึ่งของกระบวนการหารือและมีส่วนร่วมกับผู้กำหนดนโยบาย ซึ่งหากมีการปฏิบัติอย่างถูกต้องแล้ว RAI จะสามารถเป็นเครื่องมือในการสร้างความแตกต่างได้เป็นอย่างมาก อันจะนำมาสู่ความได้เปรียบทางการแข่งขัน องค์กรไทยจึงไม่ควรที่จะพลาดโอกาสนี้เป็นอย่างยิ่ง


เรื่องราวอื่นๆ ที่น่าสนใจ : เอกฤกษ์ แสงเสรีดำรง MAGURO ธุรกิจของผองเพื่อน

คลิกอ่านบทความฉบับเต็มและเรื่องราวธุรกิจอื่นๆ ที่น่าสนใจได้ที่นิตยสาร Forbes Thailand ฉบับเดือนพฤษภาคม 2567 ในรูปแบบ e-magazine