Google เอาสรรพนามทางเพศออกจาก Smart Compose ของ Gmail เพื่อหลีกเลี่ยงระบบ AI มี bias

Gmail Smart Compose นั้นเป็นหนึ่งในฟีเจอร์ระบบ AI ที่น่าสนใจที่สุดอันหนึ่งของ Google ในช่วงหลายๆ ปีที่ผ่านมา ในการทำนายว่าผู้ใช้กำลังจะเขียนอะไรลงไปในอีเมลและเสนอการปิดประโยคต่างๆ ให้กับผู้ใช้ได้ หากแต่เหมือนกับผลิตภัณฑ์ AI หลายๆ ตัว มันก็จะฉลาดได้เท่าๆ กับข้อมูลที่มันถูกเทรนขึ้นมา และก็มีแนวโน้มที่จะเกิดข้อผิดพลาดขึ้นไดมาได้ และนั่นจึงเป็นเหตุผลที่ Google ได้บล็อค Smart Compose ในการแนะนำสรรพนามทางเพศอย่างเช่น “him” และ “her” ออกไปจากอีเมล เพราะ Google กังวลว่ามันอาจจะคาดเดาเพศผิดได้

จากรายงานของ Reuters ข้อจำกัดนี้ได้ถูกนำเสนอหลังจากนักวิจัยที่บริษัทได้ค้นพบปัญหาดังกล่าวในเดือนมกราคมที่ผ่านมา โดยนักวิจัยได้พยายามที่จะพิมพ์ว่า “I am meeting an investor next week” ลงไปในข้อความซึ่ง Gmail ได้แนะนำคำถามต่อมาว่า “Do you want to meet him” ซึ่งผิดเพศของนักลงทุนที่จะไปเจอ

Gmail Product Manager คุณ Paul Lambert ได้กล่าวกับทาง Reuters ว่าทีมของเขาพยายามที่จะแก้ไขปัญหาดังกล่าวนี้ในหลายๆ ทาง หากแต่ไม่ได้มีทางใดที่จะเชื่อมั่นได้เพียงพอ ท้ายที่สุดคุณ Lambert กล่าวว่าโซลูชันที่ง่ายที่สุดก็คือเอาลักษณะประเภทเหล่านี้ออกไปให้หมด ซึ่งเปลี่ยนแปลงนี้ Google กล่าวว่ามีผลกระทบน้อยกว่า 1% ของการทำนาย Smart Compose คุณ Lambert ยังกล่าวอีกว่ามันเป็นสิ่งที่จะต้องระวังอย่างมากโดยเฉพาะเรื่องเพศนั้นมักจะเป็นสิ่งที่ใหญ่หลวงเมื่อเกิดความผิดพลาด

บั๊กเล็กน้อยนี้เป็นตัวอย่างที่ดีที่จะแสดงให้เห็นว่าซอฟต์แวร์ที่สร้างขึ้นมาโดยระบบการเรียนรู้ของเครื่อง (Machine Learning) นั้นสามารถสะท้อนหรือเสริมสร้างให้เห็น bias ของสังคมได้ว่าเป็นอย่างไร เหมือนอย่างระบบ AI จำนวนมาก Smart Compose นั้นได้เรียนรู้มาจากข้อมูลก่อนหน้านี้ รวมไปถึงอีเมลเก่าๆ เพื่อที่จะค้นหาว่าคำใดหรือว่าประโยควลีใดที่มันควรจะแนะนำออกมา (และฟีเจอร์รุ่นน้อยอย่าง Smart Reply นั้นก็ได้ทำสิ่งที่เหมือนกันเพื่อที่จะแนะนำคำตอบสั้นๆ สำหรับการตอบอีเมล)

จากตัวอย่างของคุณ Lambert นั้นมันดูเหมือนกับว่า Smart Compose นั้นได้เรียนรู้จากข้อมูลก่อนหน้านี้ซึ่งนักลงทุนมักจะเป็นเพศชายมากกว่าเพศหญิง ดังนั้น การทำนายที่ผิดพลาดนั้นก็เป็นเพราะเหตุนี้เช่นกัน

มันอาจจะดูเทียบแล้วเป็นปัญหาที่เล็ก แต่มันก็เป็นตัวบ่งบอกถึงปํญหาที่ใหญ่กว่านี้อย่างมากอยู่ โดยถ้าหากว่าพวกเราเชื่อการทำนายที่สร้างโดยอัลกอริทึมที่เทรนโดยข้อมูลที่ผ่านมานั้น พวกเราก็ดูเหมือนจะมีการทำซ้ำสิ่งที่ผิดพลาดจากอดีตกันอยู่ การทำนายเพศที่ผิดพลาดในการเขียนอีเมลนั้นอาจจะไม่ได้มีผลกระทบตามมาอะไรมากนัก หากแต่ถ้าเกิดใช้ระบบ AI แล้วตัดสินใจผิดพลาดในโดเมนอื่นๆ อย่างทางด้านการแพทย์ การจ้างงาน หรือว่าการตัดสินคดี จะเป็นอย่างไร? เหมือนเมื่อเดือนที่ผ่านมาทาง Amazon ก็ได้ทำลายเครื่องมือการรับสมัครงานภายในที่เทรนจากระบบ Machine Learning เพราะว่ามันมี bias กับผู็สมัครที่เป็นเพศหญิง ซึ่ง bias ของ AI นี้อาจจะส่งกระทบกับงานคุณหรือว่าเลวร้ายกว่านั้นได้อีก

Sourcehttps://www.theverge.com/2018/11/27/18114127/google-gmail-smart-compose-ai-gender-bias-prounouns-removed

ที่มาhttps://www.adpt.news/

Comments are closed.