ซื้อกลับบ้านที่สำคัญ
- ซอฟต์แวร์จำกัดอายุอัตโนมัติของ YouTube ทำให้เกิดความกังวลสำหรับเนื้อหา LGBTQ+ บนแพลตฟอร์ม
- บริษัทประสบปัญหาความขัดแย้งเกี่ยวกับผู้สร้างเนื้อหา LGBTQ+ ที่ไขข้อสงสัย
- อคติในแมชชีนเลิร์นนิงให้ความเชื่อมั่นกับแนวคิดที่ว่าการใช้ตัวกรองที่ไม่สมบูรณ์นั้นมีแนวโน้มที่จะจำกัดการเข้าถึงอย่างไม่ยุติธรรม
ด้วยประวัติของการกำหนดเป้าหมายผู้สร้างเนื้อหา LGBTQ+ อย่างไม่เป็นธรรมในกระบวนการกลั่นกรอง เทคโนโลยีที่ใช้ AI ใหม่ของ YouTube ถูกมองว่าเป็นขั้นตอนต่อไปที่น่าหนักใจสำหรับยักษ์ใหญ่ด้านเทคโนโลยี
ในบล็อก YouTube อย่างเป็นทางการเมื่อสัปดาห์ที่แล้ว แพลตฟอร์มแชร์วิดีโอได้เปิดเผยแผนการที่จะออกซอฟต์แวร์อัตโนมัติใหม่เพื่อ "ใช้การจำกัดอายุอย่างสม่ำเสมอมากขึ้น" สำหรับวิดีโอที่ถือว่าไม่เหมาะสมสำหรับผู้ชมที่อายุน้อยกว่า
แรงบันดาลใจจากความกังวลล่าสุดเกี่ยวกับเด็ก ๆ ในแอป ระบบใหม่นี้มีพื้นฐานมาจากซอฟต์แวร์ปัญญาประดิษฐ์สำหรับการเรียนรู้ด้วยเครื่องที่มีความสามารถในการละทิ้งผู้ดูแลที่เป็นมนุษย์สำหรับกระบวนการอัตโนมัติมากขึ้น ปัญหา? ระบบอัตโนมัติของ YouTube ถูกกล่าวหาว่าแยกเนื้อหาและผู้สร้าง LGBTQ+ ออกจากกันอย่างง่ายๆ
ถึงจะไม่เป็นอันตราย ซึ่งฉันไม่คิดว่ามันจะเป็น มันคือการขาดข้อมูลจากเสียงที่หลากหลาย-หรืออย่างน้อยก็ขาดความเคารพ
"แมชชีนเลิร์นนิงได้รับการแจ้งและสร้างขึ้นโดยมนุษย์ และมีความเป็นไปได้ที่จะมีอคติเหล่านั้นอยู่ในตัวหรือเรียนรู้จากตัวเครื่องเอง" โรวัน เอลลิส YouTuber กล่าวในการสัมภาษณ์ทางโทรศัพท์กับ Lifewire "ความลำเอียงเกี่ยวกับเนื้อหา [LGBTQ+] นั้นชัดเจนในประสบการณ์ก่อนหน้านี้ของ YouTubers [LGBTQ+] และฉันไม่เห็นหลักฐานว่ามีการดำเนินการใดๆ เพื่อหยุดยั้งมัน"
เบบี้ ตอนนี้เลือดไม่ดีแล้ว
เอลลิสเป็นยูทูบเบอร์ที่สร้างเนื้อหาด้านการศึกษาด้วยสตรีนิยมและเพศทางเลือก และในปี 2560 เธอได้เผยแพร่วิดีโอในโหมดจำกัดของบริษัท ในฐานะที่เป็นการโจมตีครั้งแรกในการกลั่นกรองเนื้อหาโดยอัตโนมัติ โหมดนี้อนุญาตให้ผู้ใช้เลือกคัดกรอง “เนื้อหาที่อาจเป็นผู้ใหญ่” ล่วงหน้าจากคำแนะนำการค้นหาและคำแนะนำ
ด้วยจำนวนการดูมากกว่า 100,000 ครั้ง เธอเชื่อว่ามีความพยายามอย่างมีสติในการป้องกันไม่ให้ช่องของเธอถูกจำกัดเนื่องจากเสียงคัดค้านของเธอที่มีต่อขั้นตอนใหม่ของ YouTube ที่มีต่อการดูแลมากเกินไป ผู้ใช้รายอื่นบนแพลตฟอร์มไม่ได้โชคดีนัก และพวกเขาทำให้ YouTube รู้
คดีฟ้องร้องแบบกลุ่มต่อ YouTube ถูกฟ้องในเดือนสิงหาคม 2019 โดยกลุ่มครีเอเตอร์ LGBTQ+ แปดคน ซึ่งกล่าวหาว่าบริษัทในซิลิคอนแวลลีย์จำกัดผู้สร้างวิดีโอและเนื้อหาเกี่ยวกับเพศทางเลือกและทรานส์ คดีดังกล่าวอ้างว่าไซต์ใช้ "การกำกับดูแลเนื้อหาที่ผิดกฎหมาย การเผยแพร่ และการสร้างรายได้ที่ตีตรา จำกัด บล็อก ทำลายล้าง และทำร้ายทางการเงินแก่โจทก์ LGBT และชุมชน LGBT ที่ยิ่งใหญ่กว่า" มันยังคงเดินผ่านสนามแคลิฟอร์เนีย
การเรียนรู้ของเครื่องได้รับการแจ้งและสร้างขึ้นโดยมนุษย์ และมีความเป็นไปได้ที่จะมีอคติเหล่านั้นอยู่ในตัวหรือเรียนรู้โดยเครื่องเอง
ในเดือนมิถุนายนของปีเดียวกันนั้น แพลตฟอร์มดังกล่าวได้รับความสนใจจากสื่อมากมายหลังจากปฏิเสธที่จะตำหนินักวิจารณ์หัวโบราณยอดนิยมอย่าง Steven Crowder อย่างฉับไวเป็นเวลาหลายเดือน แคมเปญการล่วงละเมิดทางเพศแบบปรักปรำกับนักข่าว Vox และเจ้าภาพ Carlos Maza สิ่งนี้ทำให้สิ่งที่เอลลิสกล่าวว่าเป็นรูปแบบเดียวกับแพลตฟอร์มออนไลน์ที่เพิกเฉยต่อความท้าทายที่ไม่เหมือนใครที่ครีเอเตอร์เพศทางเลือกต้องเผชิญ ครีเอเตอร์ LGBTQ+ ที่ขาดความเชื่อมั่นในความสามารถของ YouTube ในการปรากฏตัวเพื่อพวกเขาไม่ใช่สิ่งที่ไร้ค่า
"ฉันไม่คิดว่าพวกเขาเข้าใจถึงความจำเป็นที่จะต้องมีความโปร่งใสในประเด็นทางสังคมและสร้างความเท่าเทียมกัน" เธอกล่าว “ยังมีเด็กทั่วโลกที่โตมากับความคิดที่ว่าการเป็นเกย์มันผิด และเมื่อพวกเขาเริ่มตั้งคำถามกับความเชื่อนั้น แต่พบว่ามันปิดตัวลงโดยการค้นหาหรือข้อจำกัดที่ปลอดภัย จะช่วยตอกย้ำแนวคิดนี้ว่า ผิด ไม่เหมาะสม เป็นผู้ใหญ่ วิปริต และสกปรก"
ไม่สามารถเรียนรู้อัตโนมัติ
ด้วยประวัติที่ไม่ดีเกี่ยวกับผู้สร้างเนื้อหา LGBTQ+ บนแพลตฟอร์มของตน ความกังวลเกี่ยวกับการนำความสามารถของซอฟต์แวร์การเรียนรู้ของเครื่องมาใช้ในการแยกแยะบรรทัดฐานที่มากขึ้นยังคงมีอยู่ Don Heider กรรมการบริหารของ Markkula Center for Applied Ethics ชี้ว่าความเขลานั้นมีความเสี่ยงสูงเกินกว่าจะเดิมพันได้
"เป็นเรื่องยากที่จะเชื่อว่า AI สามารถควบคุมเนื้อหาจากหลายประเทศได้อย่างมีประสิทธิภาพด้วยบรรทัดฐานและมาตรฐานทางวัฒนธรรมที่แตกต่างกัน" เขาเขียนในการสัมภาษณ์ทางอีเมล "มักถูกมองว่า AI เป็นคำตอบสำหรับคำถามที่ซับซ้อน ณ จุดนี้ AI และวิธีการที่สร้างขึ้นนั้นต้องดิ้นรนเพื่อจัดการกับงานง่ายๆ นับประสาการกลั่นกรองเนื้อหาที่มีระดับความซับซ้อนทุกระดับ"
YouTube ตัดสินใจใช้เทคโนโลยี AI เนื่องจากขาดการดูแลที่สอดคล้องกันโดยผู้ดูแลที่เป็นมนุษย์ ตามบล็อก การเพิ่มการใช้ตัวกรองคอมพิวเตอร์เพื่อลบวิดีโอที่ถือว่าไม่เหมาะสมกลายเป็นเรื่องปกติ และการใช้ขั้นตอนเดียวกันสำหรับนโยบายการจำกัดอายุนั้นถือเป็นขั้นตอนต่อไปที่สมเหตุสมผล
ในฐานะบริษัทที่พยายามจะค่อยๆ ปรับปรุงกระบวนการหลังจากถูกวิพากษ์วิจารณ์มาอย่างยาวนานเกี่ยวกับความสัมพันธ์ของบริษัทกับผู้บริโภคที่เป็นเด็ก การตัดสินใจครั้งนี้จึงไม่แปลกใจเลย
ฉันไม่คิดว่าพวกเขาเข้าใจถึงความจำเป็นที่จะต้องมีความโปร่งใสในประเด็นทางสังคมและสร้างความเท่าเทียมกัน
เด็กๆ ได้กลายเป็นกลุ่มประชากรหลักสำหรับไซต์แบ่งปันวิดีโอ ในเดือนสิงหาคม Tubular บริษัทวิเคราะห์วิดีโอดิจิทัลพบว่า นอกจากมิวสิกวิดีโอแล้ว เนื้อหาที่มุ่งเป้าไปที่เด็กๆ ยังติดอันดับสูงสุดรายการปลายเดือนสำหรับวิดีโอที่มีคนดูมากที่สุดบน YouTube
บริษัทสนใจที่จะปกป้องบริษัทที่ร่ำรวยและเกิดใหม่บนแพลตฟอร์มนี้สมเหตุสมผล อย่างไรก็ตาม เครื่องมือที่ใช้ในการบังคับใช้การป้องกันนี้ยังคงสร้างความไม่สะดวกสำหรับผู้ที่พบว่าตัวเองอยู่ท้ายน้ำของกระบวนการกลั่นกรองของบริษัท
"ความกังวลของฉันคือจะทำอันตรายมากมายและไม่ปกป้องเยาวชน [LGBTQ+] ที่ต้องการเนื้อหาที่ให้ข้อมูล ตรงไปตรงมา และตรงไปตรงมาซึ่งผู้ใช้ YouTube [LGBTQ+] จำนวนมากอาจจัดหาให้ แต่ถูกตั้งค่าสถานะในระบบ ไม่เหมาะสม” เอลลิสกล่าว“ถึงจะไม่เป็นอันตราย ซึ่งฉันไม่คิดว่ามันจะเป็น มันคือการขาดข้อมูลจากเสียงที่หลากหลาย-หรืออย่างน้อยก็ขาดความเคารพ
"เราเห็นอยู่ตลอดเวลาในเทคโนโลยี เมื่อคุณดูการจดจำใบหน้าแต่ไม่สามารถแยกความแตกต่างของใบหน้าสีดำได้ หรือเมื่อเราดูยาแล้วพบว่ายาได้รับการทดสอบกับเพศใดเพศหนึ่งเท่านั้น สิ่งเหล่านี้ เป็นการสนทนาที่ใหญ่ขึ้น และ YouTube ก็ไม่ได้รับการยกเว้น"