อคติทางเชื้อชาติของ Twitter Algorithm ชี้ให้เห็นปัญหาด้านเทคนิคที่ใหญ่ขึ้น

สารบัญ:

อคติทางเชื้อชาติของ Twitter Algorithm ชี้ให้เห็นปัญหาด้านเทคนิคที่ใหญ่ขึ้น
อคติทางเชื้อชาติของ Twitter Algorithm ชี้ให้เห็นปัญหาด้านเทคนิคที่ใหญ่ขึ้น
Anonim

ซื้อกลับบ้านที่สำคัญ

  • Twitter หวังว่าจะแก้ไขสิ่งที่ผู้ใช้เรียกว่าอคติทางเชื้อชาติในซอฟต์แวร์แสดงตัวอย่างภาพ
  • การเรียกร้องของยักษ์ใหญ่ด้านเทคโนโลยีอาจเป็นการคิดเชิงวัฒนธรรมที่อุตสาหกรรมต้องการเพื่อแก้ไขปัญหาความหลากหลาย
  • เทคโนโลยีที่ขาดความหลากหลายกำลังทำลายประสิทธิภาพของความก้าวหน้าทางเทคโนโลยี
Image
Image

Twitter ถูกตั้งค่าให้เปิดการสอบสวนอัลกอริธึมการครอบตัดรูปภาพหลังจากที่มันกลายเป็นหัวข้อที่ได้รับความนิยมซึ่งกระตุ้นให้เกิดการสนทนาที่มากขึ้นในประเด็นความหลากหลายในอุตสาหกรรมเทคโนโลยี

ผู้นำโซเชียลมีเดียกลายเป็นหัวข้อข่าวหลังจากผู้ใช้ค้นพบอคติทางเชื้อชาติที่ชัดเจนในอัลกอริธึมการแสดงตัวอย่างรูปภาพ การค้นพบนี้เกิดขึ้นหลังจากผู้ใช้ Twitter Colin Madland ใช้แพลตฟอร์มเพื่อเรียกความล้มเหลวของ Zoom ในการจดจำเพื่อนร่วมงาน Black ของเขาที่ใช้เทคโนโลยีหน้าจอสีเขียว แต่ในการประชดประชันครั้งใหญ่ เขาพบว่าอัลกอริธึมการครอบตัดรูปภาพของ Twitter มีพฤติกรรมคล้ายคลึงกันและทำให้ใบหน้าสีดำลดความสำคัญลง

แน่นอนว่าเป็นปัญหาใหญ่สำหรับชนกลุ่มน้อย แต่ฉันคิดว่ายังมีประเด็นที่กว้างกว่านั้นอีกเช่นกัน

ผู้ใช้รายอื่นๆ ตกเป็นเหยื่อของกระแสทวีตแบบไวรัล ซึ่งแสดงให้เห็นว่าอัลกอริธึมจัดลำดับความสำคัญของใบหน้าที่ขาวและขาวขึ้นอย่างต่อเนื่อง ตั้งแต่คนไปจนถึงตัวการ์ตูนและแม้แต่สุนัข ความล้มเหลวนี้บ่งบอกถึงการเคลื่อนไหวทางวัฒนธรรมที่ใหญ่ขึ้นในอุตสาหกรรมเทคโนโลยีที่ล้มเหลวอย่างต่อเนื่องในการพิจารณาชนกลุ่มน้อยซึ่งได้รั่วไหลไปสู่ด้านเทคนิค

"มันทำให้ชนกลุ่มน้อยรู้สึกแย่ เหมือนไม่สำคัญ และสามารถนำไปใช้กับสิ่งอื่นที่อาจก่อให้เกิดอันตรายร้ายแรงตามมาได้" Erik Learned-Miller ศาสตราจารย์ด้านวิทยาการคอมพิวเตอร์แห่งมหาวิทยาลัย ของรัฐแมสซาชูเซตส์ กล่าวในการให้สัมภาษณ์ทางโทรศัพท์"เมื่อคุณตัดสินใจว่าซอฟต์แวร์ชิ้นใดสามารถนำมาใช้เพื่ออะไรและอันตรายทั้งหมดที่อาจเกิดขึ้นได้ เราก็เริ่มพูดถึงวิธีที่จะลดโอกาสที่จะเกิดขึ้น"

นกขมิ้นบนไทม์ไลน์

Twitter ใช้โครงข่ายประสาทเทียมเพื่อครอบตัดรูปภาพที่ฝังอยู่ในทวีตโดยอัตโนมัติ อัลกอริทึมควรจะตรวจจับใบหน้าเพื่อดูตัวอย่าง แต่ดูเหมือนว่าจะมีความลำเอียงสีขาวที่เห็นได้ชัดเจน โฆษกของบริษัท Liz Kelley ได้ทวีตตอบกลับทุกข้อกังวล

Kelley ทวีตว่า "ขอบคุณทุกคนที่หยิบยกเรื่องนี้ขึ้นมา เราทดสอบความลำเอียงก่อนส่งแบบจำลอง และไม่พบหลักฐานของอคติทางเชื้อชาติหรือเพศในการทดสอบของเรา แต่ชัดเจนว่าเรามีการวิเคราะห์เพิ่มเติมเพื่อ ทำ เราจะโอเพนซอร์สงานของเราเพื่อให้คนอื่นตรวจสอบและทำซ้ำได้"

ผู้เขียนร่วมของสมุดปกขาวเรื่อง "Facial Recognition Technologies in The Wild: A Call for a Federal Office" Learned-Miller เป็นนักวิจัยชั้นนำเกี่ยวกับซอฟต์แวร์การเรียนรู้ AI แบบใบหน้าที่มากเกินไปเขาได้พูดคุยเกี่ยวกับผลกระทบด้านลบที่อาจเกิดขึ้นจากซอฟต์แวร์การเรียนรู้ด้วยภาพมาหลายปีแล้ว และได้พูดถึงความสำคัญของการสร้างความเป็นจริงที่ความลำเอียงเหล่านี้จะลดลงอย่างสุดความสามารถ

อัลกอริธึมจำนวนมากสำหรับเทคโนโลยีการจดจำใบหน้าใช้ชุดอ้างอิงสำหรับข้อมูล ซึ่งมักเรียกว่าชุดฝึก ซึ่งเป็นชุดของรูปภาพที่ใช้เพื่อปรับพฤติกรรมของซอฟต์แวร์การเรียนรู้ภาพอย่างละเอียด ในที่สุดมันช่วยให้ AI สามารถจดจำใบหน้าที่หลากหลายได้อย่างง่ายดาย อย่างไรก็ตาม ชุดอ้างอิงเหล่านี้อาจขาดแหล่งรวมที่หลากหลาย ซึ่งนำไปสู่ปัญหาเช่นเดียวกับที่ทีม Twitter ประสบ

"แน่นอนว่าเป็นปัญหาใหญ่สำหรับชนกลุ่มน้อย แต่ฉันคิดว่ายังมีประเด็นที่กว้างกว่านั้นอีกเช่นกัน" Learned-Miller กล่าว "มันเกี่ยวข้องกับการขาดความหลากหลายในภาคเทคโนโลยีและความจำเป็นในการบังคับใช้กฎระเบียบแบบรวมศูนย์เพื่อแสดงการใช้งานที่เหมาะสมของซอฟต์แวร์ที่ทรงพลังประเภทนี้ซึ่งมีแนวโน้มที่จะใช้ในทางที่ผิดและละเมิด"

เทคโนโลยีขาดความหลากหลาย

Twitter อาจเป็นบริษัทเทคโนโลยีล่าสุดบนเขียง แต่ก็ยังห่างไกลจากปัญหาใหม่ สาขาวิชาเทคโนโลยียังคงเป็นพื้นที่สีขาวที่ครอบงำโดยผู้ชายตลอดเวลา และนักวิจัยพบว่าการขาดความหลากหลายทำให้เกิดการจำลองความไม่สมดุลของระบบและประวัติศาสตร์ในซอฟต์แวร์ที่พัฒนาแล้ว

ในรายงานปี 2019 โดยสถาบัน AI Now ของมหาวิทยาลัยนิวยอร์ก นักวิจัยพบว่าคนผิวสีมีแรงงานน้อยกว่า 6 เปอร์เซ็นต์ในบริษัทเทคโนโลยีชั้นนำของประเทศ ในทำนองเดียวกัน ผู้หญิงคิดเป็นเพียง 26 เปอร์เซ็นต์ของคนงานในภาคสนาม ซึ่งเป็นสถิติที่ต่ำกว่าส่วนแบ่งของพวกเขาในปี 1960

มันทำให้ชนกลุ่มน้อยรู้สึกแย่ ราวกับว่าพวกเขาไม่สำคัญ และสามารถนำไปใช้กับสิ่งอื่นที่อาจก่อให้เกิดอันตรายร้ายแรงขึ้นได้

ดูเผินๆ ปัญหาการเป็นตัวแทนเหล่านี้อาจดูเหมือนเป็นเรื่องธรรมดา แต่ในทางปฏิบัติ อันตรายที่เกิดขึ้นนั้นลึกซึ้ง นักวิจัยในรายงานของสถาบัน AI Now Institute ชี้ให้เห็นถึงสาเหตุที่เกี่ยวข้องกับปัญหาของซอฟต์แวร์ซึ่งมักจะล้มเหลวในการอธิบายประชากรที่ไม่ใช่คนผิวขาวและไม่ใช่ผู้ชายไม่ว่าจะเป็นเครื่องจ่ายสบู่อินฟราเรดที่ตรวจจับผิวคล้ำไม่ได้ หรือซอฟต์แวร์ AI ของ Amazon ที่แยกใบหน้าผู้หญิงออกจากใบหน้าผู้ชายไม่ได้ ความล้มเหลวในการจัดการกับความหลากหลายในอุตสาหกรรมเทคโนโลยีนำไปสู่ความล้มเหลวของเทคโนโลยีในการจัดการกับโลกที่มีความหลากหลาย

"มีคนจำนวนมากที่ไม่ได้คิดถึงปัญหาและไม่รู้จริง ๆ ว่าสิ่งเหล่านี้สามารถก่อให้เกิดอันตรายได้อย่างไรและอันตรายเหล่านี้มีความสำคัญเพียงใด " Learned-Miller แนะนำเกี่ยวกับการเรียนรู้ภาพ AI "หวังว่าจำนวนนั้นจะลดลง!"

แนะนำ: