อคติของ AI: บริษัทที่พัฒนาซอฟต์แวร์ให้มี “จริยธรรม” ได้สำเร็จ จะเป็นผู้ชนะ - Forbes Thailand

อคติของ AI: บริษัทที่พัฒนาซอฟต์แวร์ให้มี “จริยธรรม” ได้สำเร็จ จะเป็นผู้ชนะ

เรื่องนี้ไม่ใช่ความลับ Artificial Intelligence (AI) กำลังเกิด อคติของ AI จากการรับเอาอคติของผู้พัฒนาซอฟต์แวร์มาเป็นของตัวเองและขยายผลให้ใหญ่ขึ้นไปอีก อคติทางเพศและเชื้อชาติของ AI กำลังค่อยๆ แย้มหน้าของมันเข้าไปในแอพพลิเคชั่นที่เกี่ยวข้องกับการจ้างงาน บริการทางการเงิน และการกำหนดนโยบาย

แปลและเรียบเรียงจาก Make Me A Supermodel: The Company That Can Built Moral AI Could Win เขียนโดย Mike Montgomery กรรมการผู้อำนวยการ CALinnovates สำนักงานตัวแทนด้านเทคโนโลยี ตีพิมพ์ครั้งแรกใน forbes.com ขนาดทางเศรษฐกิจในตลาดโลกของเทคโนโลยี AI อาจจะสูงถึง 15 ล้านล้านเหรียญสหรัฐฯ ภายในปี 2030 นั่นหมายความว่า ปัญหาอคติดังกล่าวนี้สามารถเป็นโอกาสครั้งใหญ่เช่นเดียวกัน หากบริษัทหรือผู้ประกอบการคนใดสามารถสร้าง AI ที่ปราศจากอคติทางเชื้อชาติได้ย่อมเป็นผู้ชนะทั้งความเชื่อมั่นและรายได้จากผู้บริโภค ขณะที่ตลาดจะมีบทลงโทษบริษัทที่มีมาตรฐานจริยธรรมน้อยกว่า โลกกำลังรู้เท่าทันอคติของ AI ยิ่งขึ้น และรู้ถึงช่องทางหลากหลายที่อคตินี้อาจคืบคลานเข้าไปในซอฟต์แวร์ อคติที่แทรกซึมเข้าไปใน AI เหล่านี้เกิดขึ้นเมื่อบริษัทกำลังฝึกโปรแกรมให้รู้จักแยกแยะดาต้า ตัวอย่างที่โด่งดังที่สุดคือเทคโนโลยี Facial Recognition หากระบบอัลกอริธีมได้รับข้อมูลของคนผิวขาวเป็นหลัก มันก็จะไม่ได้เรียนรู้การแยกแยะใบหน้าของคนผิวสีได้ดีเท่า ทั้งที่คนผิวสีนั้นจริงๆ แล้วเป็นคนกลุ่มใหญ่ของโลก อคติเช่นนี้เป็นความหละหลวมทั้งในแง่ธุรกิจและจริยธรรม อคติของ AI สามารถสร้างปัญหาให้คนที่กำลังยื่นสมัครงานหรือยื่นขอสินเชื่อ หรือแม้กระทั่ง การพิจารณาทัณฑ์บนเพื่อออกจากเรือนจำ ความเสี่ยงทางด้านเศรษฐกิจและสังคมจากการให้อำนาจการตัดสินใจไว้กับอัลกอริธีมเหล่านี้เป็นสิ่งที่มองเห็นได้ง่าย แต่หากจะกดพลังของ AI ไว้ก็จะเป็นความผิดพลาด เนื่องจากเราเล็งเห็นได้ว่าการใช้ AI จะทำให้เกิดศักยภาพเพื่อกำจัดภาระงานที่ไร้ความหมายและทำให้คนได้ทำงานที่ใช้ศักยภาพมากกว่า ยกตัวอย่างเช่น AI สามารถช่วยให้นักรังสีวิทยาสร้างวิธีการรักษาโรคมะเร็งได้ดีขึ้นและเร็วขึ้น ไม่ใช่เรื่องง่ายที่องค์กรใดจะสามารถสร้างความเป็นกลางให้กับซอฟต์แวร์ AI เหตุผลหลักง่ายๆ คือ กำแพงทางจิตวิทยา เนื่องจากการมองเห็นความผิดพลาดในวิธีการหรือความเชื่อของตนเองนั้นเป็นเรื่องยากที่จะทำได้ และจะยากยิ่งขึ้นไปอีกถ้าบริษัทใช้ดาต้าในการทดสอบ AI เป็นดาต้าชุดเดียวกับที่บริษัทใช้ในการฝึกฝนมัน เพราะดาต้าชุดนั้นจะทำให้เกิดอคติแบบเดิมๆ
กรณีศึกษาจาก Amazon: บริษัทนี้วางคอนเซปท์ให้ AI ทดลองเป็นผู้คัดกรองประวัติสมัครงานเบื้องต้น เช่น คัดเลือกผู้สมัครที่ทำคะแนนได้ดีที่สุด 5 คนจาก 100 คน แต่ปรากฏว่า AI คัดเลือกอย่างไม่เป็นกลาง อคติทางเพศนั้นเกิดขึ้นเพราะ AI ได้รับดาต้าเป็นประวัติพนักงานในรอบ 10 ปีของ Amazon ซึ่งแน่นอนว่ามี "ผู้ชาย" เป็นหลักในองค์กร
แม้ว่าอคติดังกล่าวจะถูกตรวจพบ แต่มันอาจได้สร้างความเสียหายไปบ้างแล้ว ตัวอย่างเช่น Amazon พบว่าเครื่องมือในการจ้างงานของบริษัทเกิดการละเลยใบสมัครของผู้สมัครเพศหญิง เพราะมันเรียนรู้จากการประวัติการรับคนเข้าทำงานที่ผ่านมาซึ่งมักจะเลือกผู้ชายมากกว่า นอกจากนี้ AI ยังปรับโปรแกรมตัวเองให้ไม่ใส่ใจการเลือกใช้ภาษาที่แสดงอคติทางเพศ อย่างไรก็ตาม ซอฟต์แวร์ที่เกิดอคติเหล่านี้ได้ถูกปรับให้เป็นกลางในภายหลัง ตัดสินใจโดยไม่ใช้เพศเป็นปัจจัย และเลือกคำที่เกิดอคติทางเพศน้อยกว่ามาใช้งาน บริษัทต่างๆ ยังอาจค้นพบด้วยว่า ความพยายามที่จะดึงอคติออกจาก AI อาจทำให้พวกเขาตกอยู่ในเขาวงกฎแห่งจริยธรรมทางสังคม AI ของพวกเขาจะต้องผ่านบริบททางสังคมที่แตกต่างหลากหลาย เหมือนกับการถกเถียงกันระหว่างวิชาปรัชญากับคณิตศาสตร์ว่าอะไรคือความเป็นกลางและยุติธรรม ยกตัวอย่างเช่น นิยามของคำว่า “เป็นกลาง” ในเมืองอย่าง New York หรือรัฐ California อาจจะแตกต่างอย่างมากจากที่ Wyoming หรือ West Virginia นี่ไม่ได้หมายความว่าผู้ประกอบการควรจะเลิกเอาใจใส่หรือละความพยายามที่จะถอนรากถอนโคนอคติของ AI มีวิธีการเบื้องต้นที่บริษัทสามารถเดินตามเพื่อลดอคติเหล่านี้ลง เช่น ใช้ซอฟต์แวร์ที่ศึกษาวิธีการทำงานภายในเพื่อขับเน้นจุดที่อาจผิดพลาดได้ของระบบแมชชีน เลิร์นนิ่ง หรือให้เจ้าหน้าที่พิจารณารับประกันภัยจากวงการประกันเข้ามาช่วยป้อนข้อมูลให้ AI โดยใช้ข้อมูลชุดใหม่ที่แตกต่างเพื่อเน้นให้เห็นภาพการให้เครติดแก่ตัวบุคคลได้แม่นยำยิ่งขึ้น การปิดจุดผิดพลาดเรื่องอคติในโลกดิจิทัลก็เหมือนกับการต่อสู้กับอคติในโลกแห่งความเป็นจริง มันเป็นขั้นตอนที่ต้องทำอย่างต่อเนื่องและไม่มีทางสิ้นสุด ความพยายามของบริษัทผู้พัฒนาคือสิ่งสะท้อนได้อย่างชัดเจน พวกเขาควรจะทดสอบการประเมินค่าและปรับเปลี่ยนปัจจัยในการประเมินหรือชุดข้อมูลที่ใช้ให้กับแมชชีน เลิร์นนิ่งอย่างสม่ำเสมอ บริษัทควรจะวิเคราะห์ผลลัพธ์ที่เกิดขึ้นจากการใช้งานบ่อยครั้งเพื่อสังเกตถึงความผิดปกติที่อาจซ่อนอยู่ ที่สำคัญ จะช่วยได้มากหากบริษัทที่เป็นผู้พัฒนา AI คือกลุ่มคนที่ส่งเสียงดังที่สุดเมื่อมีการพูดถึง “ความเป็นกลาง” และผู้ชนะในการแข่งขันนี้ย่อมเป็นบริษัทที่มีความปรารถนาอย่างแรงกล้าที่จะพัฒนาด้านคุณธรรม