Facebook บอกว่ากำลังทดสอบเทคโนโลยีการกลั่นกรองปัญญาประดิษฐ์ใน Groups เพื่อลดความขัดแย้งในโพสต์และความคิดเห็น
เครื่องมือใหม่ที่ขับเคลื่อนด้วย AI เรียกว่า Conflict Alerts และมีขึ้นเพื่อช่วยให้ผู้ดูแลระบบกลุ่มสามารถควบคุมชุมชนของตนได้มากขึ้น เทคโนโลยี AI จะแจ้งให้ผู้ดูแลระบบทราบหากพบ “การสนทนาที่เป็นที่ถกเถียงหรือไม่ดีต่อสุขภาพ” เพื่อให้ผู้ดูแลระบบสามารถดำเนินการที่จำเป็นได้เร็วขึ้น
สำหรับผู้ใช้ Facebook ทั่วไป เครื่องมือใหม่นี้หมายความว่าคุณมักจะเห็นการทะเลาะวิวาทและข้อโต้แย้งน้อยลงภายในโพสต์ของกลุ่มที่คุณติดตาม โดยรวมแล้วทุกอย่างจะลบน้อยลง
ผู้ดูแลระบบสามารถใช้เครื่องมือ Conflict Alerts เพื่อสร้างการแจ้งเตือนเมื่อผู้ใช้แสดงความคิดเห็นด้วยคำหรือวลีที่เฉพาะเจาะจง และแมชชีนเลิร์นนิงจะตรวจจับอินสแตนซ์เหล่านี้เพื่อเตือนผู้ดูแลระบบเมื่อเกิดขึ้น เครื่องมือนี้ยังช่วยให้ผู้ดูแลระบบสามารถจำกัดกิจกรรมสำหรับคนและโพสต์ที่ต้องการได้
Facebook บอก The Verge ว่าแมชชีนเลิร์นนิงจะใช้ "สัญญาณหลายตัว เช่น เวลาตอบกลับและปริมาณความคิดเห็น เพื่อพิจารณาว่าการมีส่วนร่วมระหว่างผู้ใช้มีหรืออาจนำไปสู่การโต้ตอบเชิงลบ"
Facebook ใช้เครื่องมือ AI เพื่อตั้งค่าสถานะเนื้อหาประเภทอื่นๆ บนแพลตฟอร์มแล้ว รวมถึงคำพูดแสดงความเกลียดชัง ตามรายงานการบังคับใช้มาตรฐานชุมชนในเดือนสิงหาคม 2020 เครื่องมือ AI สำหรับคำพูดแสดงความเกลียดชังของ Facebook มีความแม่นยำ 95% เทียบกับ 89% จากไตรมาสแรกของปี 2020 Facebook กล่าวว่าได้เพิ่มการดำเนินการกับเนื้อหาคำพูดแสดงความเกลียดชังจาก 9.6 ล้านอินสแตนซ์ในไตรมาสแรก 2020 ถึง 22.5 ล้านในไตรมาสที่สอง
สำหรับผู้ใช้ Facebook ทั่วไป เครื่องมือใหม่นี้หมายความว่าคุณมักจะเห็นการทะเลาะวิวาทและข้อโต้แย้งน้อยลงภายในโพสต์ของกลุ่มที่คุณติดตาม
โซเชียลเน็ตเวิร์กยังทำงานเกี่ยวกับเทคโนโลยี AI ที่สามารถ "ดู" รูปภาพได้โดยใช้ข้อมูลดิบเพื่อให้โมเดลฝึกตัวเองอย่างอิสระและไม่ต้องใช้อัลกอริธึมในขณะที่ดูภาพมากขึ้น โปรเจ็กต์ AI ที่รู้จักกันในชื่อ SEER สามารถปูทางไปสู่โมเดลคอมพิวเตอร์วิทัศน์ที่ใช้งานได้หลากหลาย แม่นยำ และปรับเปลี่ยนได้ ในขณะเดียวกันก็นำเครื่องมือการค้นหาและการเข้าถึงที่ดีขึ้นมาสู่ผู้ใช้โซเชียลมีเดีย