AI สามารถปราบปรามคำพูดแสดงความเกลียดชังได้ในที่สุด

สารบัญ:

AI สามารถปราบปรามคำพูดแสดงความเกลียดชังได้ในที่สุด
AI สามารถปราบปรามคำพูดแสดงความเกลียดชังได้ในที่สุด
Anonim

ซื้อกลับบ้านที่สำคัญ

  • เครื่องมือซอฟต์แวร์ใหม่ช่วยให้ AI ตรวจสอบความคิดเห็นทางอินเทอร์เน็ตสำหรับคำพูดแสดงความเกลียดชัง
  • AI เป็นสิ่งจำเป็นในการดูแลเนื้อหาอินเทอร์เน็ตเนื่องจากมีเนื้อหาจำนวนมากที่เกินความสามารถของมนุษย์
  • แต่ผู้เชี่ยวชาญบางคนกล่าวว่าการตรวจสอบคำพูดของ AI ทำให้เกิดความกังวลเรื่องความเป็นส่วนตัว
Image
Image

ในขณะที่คำพูดแสดงความเกลียดชังออนไลน์เพิ่มขึ้น บริษัทแห่งหนึ่งกล่าวว่าอาจมีวิธีแก้ปัญหาที่ไม่ต้องพึ่งพาผู้ดูแลที่เป็นมนุษย์

การเริ่มต้น Spectrum Labs มอบเทคโนโลยีปัญญาประดิษฐ์ให้กับผู้ให้บริการแพลตฟอร์มเพื่อตรวจจับและปิดการแลกเปลี่ยนที่เป็นพิษในแบบเรียลไทม์ แต่ผู้เชี่ยวชาญกล่าวว่าการตรวจสอบ AI ยังทำให้เกิดปัญหาความเป็นส่วนตัว

"การตรวจสอบ AI มักต้องดูรูปแบบเมื่อเวลาผ่านไป ซึ่งจำเป็นต้องเก็บข้อมูลไว้" David Moody ผู้ช่วยอาวุโสของ Schellman บริษัทประเมินความปลอดภัยและการปฏิบัติตามข้อกำหนดด้านความเป็นส่วนตัวกล่าวกับ Lifewire ในการสัมภาษณ์ทางอีเมล "ข้อมูลนี้อาจรวมถึงข้อมูลที่กฎหมายกำหนดให้เป็นข้อมูลความเป็นส่วนตัว (ข้อมูลส่วนบุคคลที่ระบุตัวบุคคลนั้นได้หรือ PII)"

คำพูดแสดงความเกลียดชังเพิ่มเติม

Spectrum Labs เสนอวิธีแก้ปัญหาแบบไฮเทคเพื่อแก้ปัญหาคำพูดแสดงความเกลียดชังที่ล้าสมัย

"โดยเฉลี่ยแล้ว เราช่วยให้แพลตฟอร์มลดความพยายามในการดูแลเนื้อหาลง 50% และเพิ่มการตรวจจับพฤติกรรมที่เป็นพิษได้ถึง 10 เท่า" บริษัทกล่าวอ้างบนเว็บไซต์

Spectrum บอกว่ามันทำงานร่วมกับสถาบันวิจัยที่เชี่ยวชาญด้านพฤติกรรมที่เป็นอันตรายโดยเฉพาะ เพื่อสร้างแบบจำลองการระบุพฤติกรรมมากกว่า 40 แบบ แพลตฟอร์มการควบคุมเนื้อหา Guardian ของบริษัทสร้างขึ้นโดยทีมนักวิทยาศาสตร์ข้อมูลและผู้ควบคุมข้อมูล เพื่อ "สนับสนุนการปกป้องชุมชนจากความเป็นพิษ"

ความต้องการวิธีต่อสู้กับคำพูดแสดงความเกลียดชังเพิ่มขึ้นเรื่อยๆ เนื่องจากเป็นไปไม่ได้ที่มนุษย์จะตรวจสอบการรับส่งข้อมูลออนไลน์ทุกชิ้น Dylan Fox ซีอีโอของ AssemblyAI สตาร์ทอัพที่ให้การรู้จำคำพูดและมีลูกค้าที่เกี่ยวข้องกับการติดตามความเกลียดชัง คำพูดบอกกับ Lifewire ในการสัมภาษณ์ทางอีเมล

"Twitter เพียงอย่างเดียวมีประมาณ 500 ล้านทวีตต่อวัน " เขากล่าวเสริม "แม้ว่าคนๆ หนึ่งจะตรวจสอบทวีตได้ทุกๆ 10 วินาที แต่ Twitter ก็ยังต้องใช้คน 60,000 คนในการดำเนินการนี้ แต่เราใช้เครื่องมืออัจฉริยะอย่าง AI เพื่อทำให้กระบวนการเป็นอัตโนมัติ"

ไม่เหมือนมนุษย์ AI สามารถทำงานได้ทุกวันตลอด 24 ชั่วโมง และอาจมีความเท่าเทียมมากกว่า เพราะมันถูกออกแบบมาให้นำกฎของมันไปใช้กับผู้ใช้ทุกคนอย่างสม่ำเสมอโดยไม่มีความเชื่อส่วนบุคคลมารบกวน Fox กล่าว นอกจากนี้ยังมีค่าใช้จ่ายสำหรับผู้ที่ต้องตรวจสอบและกลั่นกรองเนื้อหา

"พวกเขาสามารถเผชิญกับความรุนแรง ความเกลียดชัง และการกระทำที่ลามกอนาจาร ซึ่งอาจเป็นอันตรายต่อสุขภาพจิตของบุคคลได้" เขากล่าว

Spectrum ไม่ใช่บริษัทเดียวที่พยายามตรวจหาคำพูดแสดงความเกลียดชังทางออนไลน์โดยอัตโนมัติ ตัวอย่างเช่น Center Malaysia เพิ่งเปิดตัวเครื่องมือติดตามออนไลน์ที่ออกแบบมาเพื่อค้นหาคำพูดแสดงความเกลียดชังในหมู่ชาวเน็ตมาเลเซีย ซอฟต์แวร์ที่พวกเขาพัฒนาขึ้นซึ่งเรียกว่า Tracker Benci ใช้การเรียนรู้ของเครื่องเพื่อตรวจจับคำพูดแสดงความเกลียดชังทางออนไลน์ โดยเฉพาะบน Twitter

ความท้าทายคือการสร้างพื้นที่ที่ผู้คนสามารถมีส่วนร่วมอย่างสร้างสรรค์อย่างแท้จริง

ความกังวลเรื่องความเป็นส่วนตัว

ในขณะที่โซลูชันเทคโนโลยีอย่าง Spectrum อาจต่อสู้กับคำพูดแสดงความเกลียดชังทางออนไลน์ พวกเขายังตั้งคำถามว่าคอมพิวเตอร์ตำรวจควรทำอย่างไร

Irina Raicu ผู้อำนวยการฝ่ายจริยธรรมทางอินเทอร์เน็ตที่ Markkula Center for Applied Ethics ที่มหาวิทยาลัย Santa Clara บอกกับ Lifewire ทางอีเมลว่าไม่ใช่แค่สำหรับผู้พูดที่โพสต์จะถูกลบเนื่องจากคำพูดแสดงความเกลียดชังเท่านั้น สัมภาษณ์

"การปล่อยให้มีการล่วงละเมิดในนามของ 'เสรีภาพในการพูด' ได้ผลักดันเป้าหมายของคำพูดดังกล่าว (โดยเฉพาะเมื่อมุ่งเป้าไปที่บุคคลใดบุคคลหนึ่ง) ให้หยุดพูด - เพื่อละทิ้งการสนทนาและแพลตฟอร์มต่างๆ โดยสิ้นเชิง" Raicu กล่าว"ความท้าทายคือการสร้างพื้นที่ที่ผู้คนสามารถมีส่วนร่วมอย่างสร้างสรรค์ได้อย่างไร"

การตรวจสอบคำพูดของ AI ไม่ควรทำให้เกิดปัญหาความเป็นส่วนตัว หากบริษัทต่างๆ ใช้ข้อมูลที่เปิดเผยต่อสาธารณะในระหว่างการตรวจสอบ Fox กล่าว อย่างไรก็ตาม หากบริษัทซื้อรายละเอียดเกี่ยวกับวิธีที่ผู้ใช้โต้ตอบบนแพลตฟอร์มอื่นเพื่อระบุผู้ใช้ที่มีปัญหาล่วงหน้า สิ่งนี้อาจก่อให้เกิดความกังวลเรื่องความเป็นส่วนตัว

"มันอาจจะเป็นพื้นที่สีเทานิดหน่อยก็ได้ ขึ้นอยู่กับแอปพลิเคชัน" เขากล่าวเสริม

Image
Image

จัสติน เดวิส ซีอีโอของ Spectrum Labs บอกกับ Lifewire ทางอีเมลว่าเทคโนโลยีของบริษัทสามารถตรวจสอบข้อมูลได้ 2 ถึง 5 พันแถวภายในเสี้ยววินาที “ที่สำคัญที่สุดคือเทคโนโลยีสามารถลดปริมาณเนื้อหาที่เป็นพิษที่ผู้กลั่นกรองมนุษย์สัมผัสได้” เขากล่าว

เราอาจอยู่ในจุดสิ้นสุดของการปฏิวัติ AI ในการตรวจสอบคำพูดของมนุษย์และข้อความออนไลน์ ความก้าวหน้าในอนาคตรวมถึงความสามารถในการตรวจสอบที่เป็นอิสระและเป็นอิสระที่ดีขึ้นเพื่อระบุรูปแบบคำพูดแสดงความเกลียดชังที่ไม่รู้จักก่อนหน้านี้หรือรูปแบบการเซ็นเซอร์อื่น ๆ ที่จะพัฒนา Moody กล่าว

AI จะสามารถรับรู้รูปแบบในรูปแบบคำพูดที่เฉพาะเจาะจงและเชื่อมโยงแหล่งที่มาและกิจกรรมอื่นๆ ของพวกเขาในเร็วๆ นี้ผ่านการวิเคราะห์ข่าว การยื่นต่อสาธารณะ การวิเคราะห์รูปแบบการจราจร การตรวจสอบทางกายภาพ และตัวเลือกอื่น ๆ อีกมากมาย เขากล่าวเสริม

แต่ผู้เชี่ยวชาญบางคนบอกว่ามนุษย์จะต้องทำงานกับคอมพิวเตอร์เสมอเพื่อตรวจสอบคำพูดแสดงความเกลียดชัง

"AI อย่างเดียวใช้งานไม่ได้" Raicu กล่าว "ต้องยอมรับว่าเป็นเครื่องมือที่ไม่สมบูรณ์อย่างหนึ่งที่ต้องใช้ร่วมกับคำตอบอื่นๆ"

Correction 1/25/2022: เพิ่มคำพูดจาก Justin Davis ในย่อหน้าที่ 5 จากตอนท้ายเพื่อแสดงอีเมลหลังการตีพิมพ์