บริษัทมากมายหันมาใช้งานแชทบอทเพื่อสัมภาษณ์และคัดกรองผู้สมัครงานเพิ่มขึ้นเรื่อยๆ โดยเฉพาะงานออฟฟิศ แต่ก็เช่นเดียวกับเครื่องมือจ้างงานที่ต้องพึ่งพาอัลกอริทึมอื่นๆ ก่อนหน้า ผู้เชี่ยวชาญและผู้สมัครงานต่างกังวลว่าเครื่องมือเหล่านี้อาจมีอคติแฝงอยู่
เมื่อต้นเดือนมิถุนายนที่ผ่านมา Amanda Claypool กำลังมองหางานในร้านฟาสต์ฟู้ดที่เมืองแอชวิลล์ รัฐนอร์ธแคโรไลนา ทว่าเธอกลับพบปัญหาที่คาดไม่ถึงซึ่งน่ารำคาญเป็นอย่างมาก นั่นก็คือแชทบอทรับสมัครงานที่ออกจะเพี้ยนๆ หน่อย
ยกตัวอย่าง เช่น Olivia แชทบอทรับสมัครงานของร้าน McDonalds ที่ต้องการให้ Claypool มาสัมภาษณ์ตัวต่อตัว แต่ดันทำนัดในตารางไม่ได้เพราะข้อผิดพลาดทางเทคนิค ขณะที่บอทของร้าน Wendys ทำนัดสัมภาษณ์ตัวต่อตัวให้เธอสำเร็จ แต่ดันเป็นงานที่เธอทำไม่ได้ ส่วนแชทบอทของ Hardees เรียกให้เธอมาสัมภาษณ์งานกับผู้จัดการร้านที่ลางานในวันนั้น ซึ่งเรื่องราวทั้งหมดนี้แลดูจะห่างไกลจากกลยุทธ์การสรรหาบุคลากรอันราบรื่นไปมากโข
“ฉันไปที่ร้าน Hardees แล้วพวกเขาก็ทำท่าทางประหลาดใจกัน พนักงานที่ดูแลร้านไม่รู้ว่าจะทำอย่างไรกับฉัน หรือจะช่วยฉันอย่างไรดี” Claypool ผู้ซึ่งท้ายที่สุดแล้วก็ไปได้งานที่ไหนสักแห่งบอกเล่าประสบการณ์ผ่าน Forbes
“กลายเป็นว่ามันยุ่งยากกว่าที่เคย” เธอกล่าว และถึงแม้ทาง Forbes จะเคยติดต่อสอบถามไปยัง McDonalds และ Hardees แต่ทั้งสองแห่งก็เลือกที่จะไม่ออกมาแสดงความคิดเห็นใดๆ ขณะที่โฆษกของร้าน Wendys บอก กับ Forbes ว่า บอทนั้นสร้าง “ประสิทธิภาพในการจ้างงาน” และยังเสริมด้วยว่า “นวัตกรรมมีอยู่ใน DNA ของเรา”
อย่างไรก็ตาม แชทบอท HR ประเภทเดียวกับที่ Claypool ได้พบเจอถูกนำมาใช้ในอุตสาหกรรมต่างๆ เพิ่มมากขึ้น ไม่ว่าจะบริการด้านสุขภาพ ร้านค้า และร้านอาหาร ทั้งนี้ เพื่อช่วยคัดกรองผู้สมัครงานที่ไม่ตรงตามเงื่อนไขออกไป และทำการนัดสัมภาษณ์ผู้ที่น่าจะเหมาะสมสำหรับงานนั้นๆ
McDonalds, Wendys, CVS Health และ Lowes ใช้งาน Olivia แชทบอทซึ่งพัฒนาโดยสตาร์ทอัพ AI มูลค่า 1.5 พันล้านเหรียญสหรัฐฯ จากรัฐแอริโซนานาม Paradox ส่วนบริษัทอื่นๆ เช่น LOreal ใช้ Mya แชทบอท AI พัฒนาโดยสตาร์ทอัพในซานฟรานซิสโก (Paradox เองก็ไม่ได้ออกมาแสดงความคิดเห็นในประเด็นของ Claypool เช่นกัน)
แชทบอทจัดหางานส่วนใหญ่ไม่ได้มีความก้าวหน้าและซับซ้อนเท่าแชทบอทสนทนาแสนทันสมัยอย่าง ChatGPT ซึ่งโดยหลักแล้วพวกมันถูกนำมาใช้คัดกรองในตำแหน่งงานที่มีผู้สมัครเข้ามาเป็นจำนวนมาก เช่น แคชเชียร์ เจ้าหน้าที่คลังสินค้า และเจ้าหน้าที่บริการลูกค้า
แชทบอทเหล่านี้ทำงานในระดับพื้นฐาน และถามคำถามที่มีความตรงไปตรงมาพอสมควร เช่น “คุณรู้วิธีการใช้รถยกหรือไม่?” หรือ “คุณสามารถทำงานในวันหยุดได้หรือไม่?” แต่ก็อย่างที่ Claypool ประสบ บอทพวกนี้ผิดพลาดได้ และมักจะไม่ค่อยมีมนุษย์อยู่ช่วยเหลือเมื่อเกิดปัญหาขึ้น
นอกจากนี้บอทหลายตัวยังต้องการคำตอบที่ชัดเจน ไม่เช่นนั้นแล้วก็จะทำการปฏิเสธโดยอัตโนมัติ จึงอาจทำให้ต้องสูญเสียผู้สมัครงานที่มีคุณสมบัติเหมาะสมไปหากพวกเขาไม่ได้ตอบคำถามตามที่โมเดลภาษาขนาดใหญ่ (Large Language Model หรือ LLM) เหล่านี้ต้องการ ซึ่งทางผู้เชี่ยวชาญกล่าวว่า นับเป็นปัญหาใหญ่สำหรับผู้ทุพพลภาพ ผู้ที่ไม่ชำนาญภาษาอังกฤษ และผู้สมัครงานสูงอายุ
ด้าน Aaron Konopasky ทนายที่ปรึกษาอาวุโสแห่งคณะกรรมการเพื่อความเสมอภาคในการทำงานของสหรัฐอเมริกา (U.S. Equal Employment Opportunity Commission หรือ EEOC) ให้ความเห็นโดยเกรงว่าแชทบอท อย่าง Olivia และ Mya อาจไม่เสนอทางเลือกตำแหน่งว่างหรืองานอื่นให้บุคคลทุพพลภาพหรือมีโรคประจำตัวซึ่งเป็นการตัดโอกาสพวกเขา
“หากคุณกำลังพูดคุยกับมนุษย์จริงๆ ก็มีโอกาสที่จะเจรจาต่อรองกันอย่างเป็นเหตุเป็นผล” เขาเผยกับ Forbes “แต่หากแชทบอทนั้นขาดความยืดหยุ่น และใครคนนั้นถือเป็นกรณียกเว้น แชทบอทก็อาจไม่ให้โอกาสเขาหรือเธอสำหรับตำแหน่งงานนั้น”
การแบ่งแยก (Discrimination) ก็เป็นอีกหนึ่งประเด็นที่น่าเป็นห่วง อคติอันแฝงเร้นอยู่ในชุดข้อมูลที่นำมาป้อนสอน AI สามารถบ่มเพาะอคติและการแบ่งแยกเมื่อมีการนำ AI ตัวนี้ไปใช้งานกับเครื่องมือต่างๆ
“หากแชทบอทสนใจว่าคุณใช้เวลานานเท่าไหร่ในการตอบสนอง หรือดูว่าคุณใช้ไวยากรณ์ที่ถูกแล้วและประโยคความซ้อนด้วยไหม นั่นแหละที่คุณต้องเริ่มกังวลแล้วว่ามีเรื่องของอคติเข้ามาเกี่ยวข้อง”
Pauline Kim ศาสตราจารย์ด้านกฎหมายจ้างงานและแรงงานจากมหาวิทยาลัยวอชิงตันกล่าว เธอได้ศึกษาวิจัยโดยมุ่งเน้นเรื่องการนำ AI มาใช้ในเครื่องมือจ้างงาน อย่างไรก็ตามอคตินั้นอาจตรวจพบได้ยากหากบริษัทไม่แสดงความโปร่งใส ว่าเหตุใดผู้สมัครที่มีความสามารถจึงถูกปฏิเสธ
เมื่อเร็วๆ นี้ ทางการสหรัฐฯ ได้นำเสนอกฎหมายในการสอดส่องและควบคุมการนำระบบอัตโนมัติมาใช้ในเครื่องมือจ้างงานต่างๆ เมื่อต้นเดือนกรกฎาคม ทางนิวยอร์กซิตี้ได้ตรากฎหมายใหม่ โดยผู้จ้างงานที่ใช้เครื่องมืออัตโนมัติ เช่น ตัวสแกนเรซูเม่ และแชทบอทสำหรับสัมภาษณ์ จำเป็นต้องได้รับการตรวจสอบว่าเครื่องมือของพวกเขามีอคติทางเพศหรือเชื้อชาติหรือไม่
ในปี 2020 รัฐอิลลินอยส์ได้ออกกฎหมายใหม่โดยผู้จ้างงานที่ใช้ระบบ AI วิเคราะห์วิดีโอสัมภาษณ์จะต้องแจ้งแก่ผู้สมัครก่อนและต้องได้รับความยิมยอม
อย่างไรก็ตาม สำหรับบริษัทที่ต้องการลดค่าใช้จ่ายในการจ้างงาน การใช้ ระบบ AI เข้ามาช่วยคัดกรองดูจะเป็นตัวเลือกที่ชัดเจน ซึ่งบ่อยครั้งที่แผนกทรัพยากรบุคคลดูจะเป็นเป้าหมายแรกในการปลดพนักงานออก Matthew Scherer ซึ่งเป็นที่ปรึกษาด้านนโยบายอาวุโสว่าด้วยสิทธิของลูกจ้างและเทคโนโลยีจากองค์กร Center for Democracy and Technology กล่าว
“แผนกทรัพยากรบุคคลเป็นแผนกที่บริษัทต้องเสียค่าใช้จ่ายดูแล ไม่ได้เป็นแผนกที่สร้างรายได้” เขาอธิบาย ดังนั้น “การนำแชทบอทมาใช้ลดภาระหนักอึ้งของผู้สรรหาพนักงานใหม่เหล่านี้จึงเป็นก้าวแรกที่ฟังดูสมเหตุสมผล”
นั่นคือส่วนหนึ่งของคำชี้แจงเหตุผลต่างๆ ของ Sense HQ ที่ให้บริการแชทบอทขับเคลื่อนด้วย AI ด้านการสนทนาผ่านข้อความแก่บริษัทอย่าง Sears, Dell และ Sony ซึ่งช่วยให้เจ้าหน้าที่จัดหาพนักงานใหม่ของพวกเขาคัดกรองผู้สมัครนับพันคนได้
Sense HQ เผยว่าผู้สมัครงานราว 10 ล้านคนใช้งานแชทบอท AI ของพวกเขาแล้ว และ Alex Rosen ผู้ร่วมก่อตั้งบริษัทบอกกับ Forbes ว่าตัวเลขเหล่านี้หมายถึงแหล่งหาผู้สมัครที่เหมาะสมที่ใหญ่กว่าเดิมมาก
“เหตุผลที่เราประดิษฐ์แชทบอทขึ้นในทีแรกก็เพื่อช่วยให้ผู้สรรหาพนักงานใหม่เข้าถึงผู้สมัครได้กว้างขวางกว่าที่พวกเขาอาจทำได้ด้วยตัวเอง” เขากล่าวพร้อมกับเสริมคำเตือนที่สำคัญว่า “เราไม่คิดว่าระบบ AI ควรจะตัดสินใจในการจ้างงานด้วยตัวของมันเอง เพราะแบบนั้นเริ่มอันตรายแล้ว และเราก็คิดว่ามันยังไม่เหมาะสมที่จะไปถึงตรงจุดนั้น”
แพลตฟอร์ม RecruitBot ได้สอน AI เกี่ยวกับการจ้างงานโดยใช้ Machine Learning นำฐานข้อมูลที่เต็มไปด้วยรายละเอียดของผู้สมัครงาน 600 ล้านคนจากแหล่งข้อมูลสาธารณะที่มีอยู่รวมถึงพื้นที่จัดหางานต่างๆ ทั้งหมดโดยมีเป้าหมายเพื่อช่วยบริษัทต่างๆ หาผู้มีคุณสมบัติเหมาะสมตรงกับพนักงานคนปัจจุบันของพวกเขา
“ทำนองเดียวกับที่ Netflix แนะนำภาพยนตร์โดยอิงจากภาพยนตร์เรื่องอื่นที่คุณชอบ” Jeremy Schiff ซีอีโอและผู้ก่อตั้ง RecruitBot กล่าวกับ Forbes
อย่างไรก็ตามเรื่องของอคติเป็นสิ่งน่ากังวลอย่างชัดเจน เพราะการจ้างงานคนที่เหมือนกับคนก่อนมากๆ มีจุดบอดหลายประการ ในปี 2018 ทาง Amazon นำระบบติดตามเรซูเม่ที่ใช้ Machine Learning ออกไปจากการที่มันกีดกันผู้หญิง เพราะข้อมูลที่นำมาป้อนส่วนใหญ่เป็นเรซูเม่ของผู้ชาย
Urmila Janardan นักวิเคราะห์นโยบายจาก Upturn องค์กรไม่แสวงหาผลกำไรที่ศึกษาผลกระทบของเทคโนโลยีต่อโอกาสของผู้คนชี้ว่า บางบริษัทหันมาใช้แบบทดสอบบุคลิกภาพเพื่อคัดผู้สมัครออก และคำถามในการคัดกรองก็อาจไม่ได้เกี่ยวข้องอะไรกับเนื้องานเลยด้วยซ้ำ
“มันอาจเป็นไปได้ว่าคุณอาจถูกปฏิเสธจากงานด้วยคำถามเกี่ยวกับความกตัญญูและบุคลิกภาพ” เธอยกตัวอย่าง
สำหรับ Rick Gned ซึ่งเป็นนักวาดภาพและนักเขียนพาร์ทไทม์ คำถามเรื่องบุคลิกภาพเป็นส่วนหนึ่งของการสัมภาษณ์กับแชทบอทในการสมัครงานจัดชั้นวางของที่ได้ค่าจ้างเป็นรายชั่วโมง ณ ซูเปอร์มาร์เก็ตในออสเตรเลียอย่าง Woolworths
แชทบอทที่สร้างโดยบริษัทจัดหาพนักงานใหม่โดยใช้ AI นาม Sapia AI (เดิมรู้จักกันในชื่อ PredictiveHire) ขอให้เขาเขียนคำตอบความยาวระหว่าง 50-150 คำสำหรับห้าคำถาม ก่อนจะวิเคราะห์คำตอบของเขาเพื่อค้นหาคุณสมบัติและทักษะที่ตรงกับความต้องการของผู้จ้างงาน ผลสรุปคือ Gned “รับมือกับความเปลี่ยนแปลงได้ดี” และ “ให้ความสำคัญกับภาพรวมซึ่งทำให้เขาละเลยรายละเอียด” ก่อนจะจัดให้เขาเข้าสัมภาษณ์รอบถัดไป
แม้ Sapia AI จะไม่จำกัดเวลาการตอบคำถามของผู้สมัคร ทางระบบมีการตรวจสอบโครงสร้างประโยค การเรียบเรียง และความซับซ้อนของคำที่ใช้ในคำตอบ Barb Hyman ซีอีโอและผู้ร่วมก่อตั้ง Sapia AI เผยข้อมูลนี้ในอีเมล
Gned พบว่าทั้งหมดนี้ลดทอนความเป็นมนุษย์และน่ากังวลอย่างยิ่ง เขาบอก Forbes “ผมอยู่ในกลุ่มประชากรที่ไม่ได้รับผลกระทบอะไร แต่ผมเป็นห่วงคนกลุ่มน้อยซึ่งเป็นประชากรหลักของตลาดแรงงานรายได้ต่ำ”
มีผู้สมัครงานคนหนึ่ง ซึ่งขอสงวนตัวตนไว้ในการให้ข้อมูลอย่างเป็นอิสระ การพูดคุนกับแชทบอทมีข้อดีอย่างน้อยหนึ่งข้อ ในการกรอกข้อมูลสมัครงานนับร้อยแห่ง เขามักไม่ได้รับคำตอบใดๆ กลับมา แต่อย่างน้อยที่สุดแชทบอทก็ทำให้เขามั่นใจได้ว่าทางบริษัทได้รับใบสมัครของเขาแล้ว
“มันให้ความรู้สึกเหมือนได้รับกำลังใจในหลายๆ แง่” เขาว่า “แต่ถ้าผมต้องคุยกับแชทบอททุกครั้งที่สมัครงาน ผมคงต้องประสาทกินแน่ๆ”
แปลและเรียบเรียงจาก AI Chatbots Are The New Job Interviewers ซึ่งเผยแพร่บน Forbes