ซื้อกลับบ้านที่สำคัญ
- เครื่องมือซอฟต์แวร์ใหม่ช่วยให้ AI ตรวจสอบความคิดเห็นทางอินเทอร์เน็ตสำหรับคำพูดแสดงความเกลียดชัง
- AI เป็นสิ่งจำเป็นในการดูแลเนื้อหาอินเทอร์เน็ตเนื่องจากมีเนื้อหาจำนวนมากที่เกินความสามารถของมนุษย์
- แต่ผู้เชี่ยวชาญบางคนกล่าวว่าการตรวจสอบคำพูดของ AI ทำให้เกิดความกังวลเรื่องความเป็นส่วนตัว
ในขณะที่คำพูดแสดงความเกลียดชังออนไลน์เพิ่มขึ้น บริษัทแห่งหนึ่งกล่าวว่าอาจมีวิธีแก้ปัญหาที่ไม่ต้องพึ่งพาผู้ดูแลที่เป็นมนุษย์
การเริ่มต้น Spectrum Labs มอบเทคโนโลยีปัญญาประดิษฐ์ให้กับผู้ให้บริการแพลตฟอร์มเพื่อตรวจจับและปิดการแลกเปลี่ยนที่เป็นพิษในแบบเรียลไทม์ แต่ผู้เชี่ยวชาญกล่าวว่าการตรวจสอบ AI ยังทำให้เกิดปัญหาความเป็นส่วนตัว
"การตรวจสอบ AI มักต้องดูรูปแบบเมื่อเวลาผ่านไป ซึ่งจำเป็นต้องเก็บข้อมูลไว้" David Moody ผู้ช่วยอาวุโสของ Schellman บริษัทประเมินความปลอดภัยและการปฏิบัติตามข้อกำหนดด้านความเป็นส่วนตัวกล่าวกับ Lifewire ในการสัมภาษณ์ทางอีเมล "ข้อมูลนี้อาจรวมถึงข้อมูลที่กฎหมายกำหนดให้เป็นข้อมูลความเป็นส่วนตัว (ข้อมูลส่วนบุคคลที่ระบุตัวบุคคลนั้นได้หรือ PII)"
คำพูดแสดงความเกลียดชังเพิ่มเติม
Spectrum Labs เสนอวิธีแก้ปัญหาแบบไฮเทคเพื่อแก้ปัญหาคำพูดแสดงความเกลียดชังที่ล้าสมัย
"โดยเฉลี่ยแล้ว เราช่วยให้แพลตฟอร์มลดความพยายามในการดูแลเนื้อหาลง 50% และเพิ่มการตรวจจับพฤติกรรมที่เป็นพิษได้ถึง 10 เท่า" บริษัทกล่าวอ้างบนเว็บไซต์
Spectrum บอกว่ามันทำงานร่วมกับสถาบันวิจัยที่เชี่ยวชาญด้านพฤติกรรมที่เป็นอันตรายโดยเฉพาะ เพื่อสร้างแบบจำลองการระบุพฤติกรรมมากกว่า 40 แบบ แพลตฟอร์มการควบคุมเนื้อหา Guardian ของบริษัทสร้างขึ้นโดยทีมนักวิทยาศาสตร์ข้อมูลและผู้ควบคุมข้อมูล เพื่อ "สนับสนุนการปกป้องชุมชนจากความเป็นพิษ"
ความต้องการวิธีต่อสู้กับคำพูดแสดงความเกลียดชังเพิ่มขึ้นเรื่อยๆ เนื่องจากเป็นไปไม่ได้ที่มนุษย์จะตรวจสอบการรับส่งข้อมูลออนไลน์ทุกชิ้น Dylan Fox ซีอีโอของ AssemblyAI สตาร์ทอัพที่ให้การรู้จำคำพูดและมีลูกค้าที่เกี่ยวข้องกับการติดตามความเกลียดชัง คำพูดบอกกับ Lifewire ในการสัมภาษณ์ทางอีเมล
"Twitter เพียงอย่างเดียวมีประมาณ 500 ล้านทวีตต่อวัน " เขากล่าวเสริม "แม้ว่าคนๆ หนึ่งจะตรวจสอบทวีตได้ทุกๆ 10 วินาที แต่ Twitter ก็ยังต้องใช้คน 60,000 คนในการดำเนินการนี้ แต่เราใช้เครื่องมืออัจฉริยะอย่าง AI เพื่อทำให้กระบวนการเป็นอัตโนมัติ"
ไม่เหมือนมนุษย์ AI สามารถทำงานได้ทุกวันตลอด 24 ชั่วโมง และอาจมีความเท่าเทียมมากกว่า เพราะมันถูกออกแบบมาให้นำกฎของมันไปใช้กับผู้ใช้ทุกคนอย่างสม่ำเสมอโดยไม่มีความเชื่อส่วนบุคคลมารบกวน Fox กล่าว นอกจากนี้ยังมีค่าใช้จ่ายสำหรับผู้ที่ต้องตรวจสอบและกลั่นกรองเนื้อหา
"พวกเขาสามารถเผชิญกับความรุนแรง ความเกลียดชัง และการกระทำที่ลามกอนาจาร ซึ่งอาจเป็นอันตรายต่อสุขภาพจิตของบุคคลได้" เขากล่าว
Spectrum ไม่ใช่บริษัทเดียวที่พยายามตรวจหาคำพูดแสดงความเกลียดชังทางออนไลน์โดยอัตโนมัติ ตัวอย่างเช่น Center Malaysia เพิ่งเปิดตัวเครื่องมือติดตามออนไลน์ที่ออกแบบมาเพื่อค้นหาคำพูดแสดงความเกลียดชังในหมู่ชาวเน็ตมาเลเซีย ซอฟต์แวร์ที่พวกเขาพัฒนาขึ้นซึ่งเรียกว่า Tracker Benci ใช้การเรียนรู้ของเครื่องเพื่อตรวจจับคำพูดแสดงความเกลียดชังทางออนไลน์ โดยเฉพาะบน Twitter
ความท้าทายคือการสร้างพื้นที่ที่ผู้คนสามารถมีส่วนร่วมอย่างสร้างสรรค์อย่างแท้จริง
ความกังวลเรื่องความเป็นส่วนตัว
ในขณะที่โซลูชันเทคโนโลยีอย่าง Spectrum อาจต่อสู้กับคำพูดแสดงความเกลียดชังทางออนไลน์ พวกเขายังตั้งคำถามว่าคอมพิวเตอร์ตำรวจควรทำอย่างไร
Irina Raicu ผู้อำนวยการฝ่ายจริยธรรมทางอินเทอร์เน็ตที่ Markkula Center for Applied Ethics ที่มหาวิทยาลัย Santa Clara บอกกับ Lifewire ทางอีเมลว่าไม่ใช่แค่สำหรับผู้พูดที่โพสต์จะถูกลบเนื่องจากคำพูดแสดงความเกลียดชังเท่านั้น สัมภาษณ์
"การปล่อยให้มีการล่วงละเมิดในนามของ 'เสรีภาพในการพูด' ได้ผลักดันเป้าหมายของคำพูดดังกล่าว (โดยเฉพาะเมื่อมุ่งเป้าไปที่บุคคลใดบุคคลหนึ่ง) ให้หยุดพูด - เพื่อละทิ้งการสนทนาและแพลตฟอร์มต่างๆ โดยสิ้นเชิง" Raicu กล่าว"ความท้าทายคือการสร้างพื้นที่ที่ผู้คนสามารถมีส่วนร่วมอย่างสร้างสรรค์ได้อย่างไร"
การตรวจสอบคำพูดของ AI ไม่ควรทำให้เกิดปัญหาความเป็นส่วนตัว หากบริษัทต่างๆ ใช้ข้อมูลที่เปิดเผยต่อสาธารณะในระหว่างการตรวจสอบ Fox กล่าว อย่างไรก็ตาม หากบริษัทซื้อรายละเอียดเกี่ยวกับวิธีที่ผู้ใช้โต้ตอบบนแพลตฟอร์มอื่นเพื่อระบุผู้ใช้ที่มีปัญหาล่วงหน้า สิ่งนี้อาจก่อให้เกิดความกังวลเรื่องความเป็นส่วนตัว
"มันอาจจะเป็นพื้นที่สีเทานิดหน่อยก็ได้ ขึ้นอยู่กับแอปพลิเคชัน" เขากล่าวเสริม
จัสติน เดวิส ซีอีโอของ Spectrum Labs บอกกับ Lifewire ทางอีเมลว่าเทคโนโลยีของบริษัทสามารถตรวจสอบข้อมูลได้ 2 ถึง 5 พันแถวภายในเสี้ยววินาที “ที่สำคัญที่สุดคือเทคโนโลยีสามารถลดปริมาณเนื้อหาที่เป็นพิษที่ผู้กลั่นกรองมนุษย์สัมผัสได้” เขากล่าว
เราอาจอยู่ในจุดสิ้นสุดของการปฏิวัติ AI ในการตรวจสอบคำพูดของมนุษย์และข้อความออนไลน์ ความก้าวหน้าในอนาคตรวมถึงความสามารถในการตรวจสอบที่เป็นอิสระและเป็นอิสระที่ดีขึ้นเพื่อระบุรูปแบบคำพูดแสดงความเกลียดชังที่ไม่รู้จักก่อนหน้านี้หรือรูปแบบการเซ็นเซอร์อื่น ๆ ที่จะพัฒนา Moody กล่าว
AI จะสามารถรับรู้รูปแบบในรูปแบบคำพูดที่เฉพาะเจาะจงและเชื่อมโยงแหล่งที่มาและกิจกรรมอื่นๆ ของพวกเขาในเร็วๆ นี้ผ่านการวิเคราะห์ข่าว การยื่นต่อสาธารณะ การวิเคราะห์รูปแบบการจราจร การตรวจสอบทางกายภาพ และตัวเลือกอื่น ๆ อีกมากมาย เขากล่าวเสริม
แต่ผู้เชี่ยวชาญบางคนบอกว่ามนุษย์จะต้องทำงานกับคอมพิวเตอร์เสมอเพื่อตรวจสอบคำพูดแสดงความเกลียดชัง
"AI อย่างเดียวใช้งานไม่ได้" Raicu กล่าว "ต้องยอมรับว่าเป็นเครื่องมือที่ไม่สมบูรณ์อย่างหนึ่งที่ต้องใช้ร่วมกับคำตอบอื่นๆ"
Correction 1/25/2022: เพิ่มคำพูดจาก Justin Davis ในย่อหน้าที่ 5 จากตอนท้ายเพื่อแสดงอีเมลหลังการตีพิมพ์