ทำไมโซเชียลมีเดียไม่สามารถปกป้องเราจากเนื้อหาที่ไม่เหมาะสมได้เสมอ

สารบัญ:

ทำไมโซเชียลมีเดียไม่สามารถปกป้องเราจากเนื้อหาที่ไม่เหมาะสมได้เสมอ
ทำไมโซเชียลมีเดียไม่สามารถปกป้องเราจากเนื้อหาที่ไม่เหมาะสมได้เสมอ
Anonim

ซื้อกลับบ้านที่สำคัญ

  • Instagram เพิ่งเปิดตัวฟีเจอร์การควบคุมเนื้อหาที่ละเอียดอ่อนเพื่อให้ผู้ใช้ตัดสินใจได้ว่าต้องการดูอะไรบนแพลตฟอร์ม
  • แพลตฟอร์มโซเชียลมีเดียทั้งหมดมีการควบคุมเนื้อหาและนโยบายบางอย่างเพื่อจำกัดเนื้อหาที่เห็นว่าเป็นอันตรายและไม่เหมาะสม
  • ผู้เชี่ยวชาญกล่าวว่าผู้ใช้ทุกคนมีระดับความอดทนที่แตกต่างกันต่อสิ่งที่ถือว่าไม่เหมาะสม และการควบคุมเนื้อหาของคุณนั้นง่ายพอๆ กับการใช้อัลกอริทึม
Image
Image

Instagram เปิดตัวฟีเจอร์ Sensitive Content Control เมื่อต้นสัปดาห์นี้ แต่นโยบายการควบคุมเนื้อหาเช่นนี้มักจะขาดในเครือข่ายโซเชียลมีเดีย

ฟีเจอร์ใหม่ของแพลตฟอร์มนี้ให้คุณเลือก “อนุญาต” “จำกัด” หรือควบคุมให้รัดกุมยิ่งขึ้น เพื่อให้คุณเห็นเนื้อหาที่ “เป็นอันตรายหรือละเอียดอ่อน” ในฟีดของคุณน้อยลง ไซต์โซเชียลมีเดียทั้งหมดมีนโยบายเนื้อหาบางอย่าง แต่ผู้เชี่ยวชาญกล่าวว่านโยบายเหล่านี้ในท้ายที่สุดจะไม่ปกป้องทุกคนจากทุกสิ่ง และไม่ควรทำเช่นนั้น

“เท่าที่ไซต์โซเชียลมีเดียเอง พวกเขา 'ดี' แค่ไหนที่คอยตรวจสอบเนื้อหาที่เชื่อมโยงไปถึงเป้าหมายทางธุรกิจของพวกเขาเองและตัวชี้วัดที่พวกเขาเห็นในคำอื่น ๆ ซึ่งประกอบไปด้วยสมาชิกในชุมชนจำนวนมาก” Mary Brown ผู้อำนวยการฝ่ายการตลาดและโซเชียลมีเดียของ Merchant Maverick บอกกับ Lifewire ทางอีเมล

การกำหนดเนื้อหาที่เป็นอันตราย

การควบคุมเนื้อหาที่เป็นอันตรายไม่ใช่เรื่องใหม่สำหรับโซเชียลมีเดีย เกือบทุกแพลตฟอร์มมีนโยบายที่จะจำกัดเนื้อหาที่ละเอียดอ่อนหรือเป็นอันตรายบางประเภท นโยบายของ Twitter จะลบทวีตที่มีเนื้อหาที่ไม่เหมาะสมซึ่งหมายถึงการล่วงละเมิดหรือข่มขู่ผู้อื่นโดยอัตโนมัติแพลตฟอร์มยังได้อัปเดตกฎต่อต้านเนื้อหาแสดงความเกลียดชังในปี 2019 เพื่อรวมทวีตใดๆ ที่ลดทอนความเป็นมนุษย์ตามศาสนา

Facebook มีแนวปฏิบัติในการดูแลเนื้อหาด้วย ตัวอย่างเช่น โซเชียลเน็ตเวิร์กไม่อนุญาตให้มีภาพทำร้ายตัวเองหรือเนื้อหาที่ยกย่องความผิดปกติของการกิน แพลตฟอร์มดังกล่าวยังปราบปรามการอนุญาตให้มีการอ้างสิทธิ์ด้านสุขภาพที่น่าดึงดูดใจในฟีดของผู้คน เช่น การกล่าวอ้างด้านสุขภาพที่เกินจริงหรือทำให้เข้าใจผิดเกี่ยวกับวัคซีน

Image
Image

แต่ผู้เชี่ยวชาญกล่าวว่านโยบายเหล่านี้ทำให้ผู้ใช้มีคำถามมากกว่าคำตอบ เนื่องจาก “เนื้อหาที่เป็นอันตราย” อาจแตกต่างจากที่แต่ละแพลตฟอร์มกำหนด

“ใครกำหนดว่าอะไรเป็นที่น่ารังเกียจ? ผู้ใช้จะต้องเลือกจากรายการหัวข้อที่พวกเขาเห็นว่าไม่เหมาะสมหรือไม่? Facebook และ Instagram จะตัดสินว่าอะไรคือสิ่งที่น่ารังเกียจ? จะกำหนดความไม่พอใจได้อย่างไร” Andrew Selepak ศาสตราจารย์ด้านโซเชียลมีเดียแห่งมหาวิทยาลัยฟลอริดากล่าวกับ Lifewire ทางอีเมล

Instagram กำหนดเนื้อหาที่ละเอียดอ่อนว่า "โพสต์ที่ไม่จำเป็นต้องฝ่าฝืนกฎของเรา แต่อาจทำให้บางคนไม่พอใจ เช่น โพสต์ที่อาจมีการชี้นำทางเพศหรือความรุนแรง"

Brown เสริมว่าแพลตฟอร์มไม่สามารถปกป้องทุกคนจากเนื้อหาประเภทนี้ได้สำเร็จ เนื่องจากทุกคนมีความอดทนและความชอบเนื้อหาต่างกันไป

“ทุกคนมีระดับความอดทนต่างกัน ทัศนคติต่างกัน รสนิยมต่างกัน” เธอกล่าว “ทุกคนที่ดาวน์โหลดหรือใช้ไซต์โซเชียลมีเดียยอมรับโดยเนื้อแท้ว่าอาจสะดุดกับเนื้อหาที่อยู่นอกแนวทางเนื้อหาที่ยอมรับได้ของแอปหรือมาตรฐานชุมชน”

ผู้ใช้โซเชียลมีเดียจำนวนมากยังวิพากษ์วิจารณ์ฟีเจอร์ใหม่ของ Instagram โดยบอกว่าจะจำกัดเนื้อหาจากนักเคลื่อนไหวและศิลปิน (เกี่ยวกับหัวข้อที่ขัดแย้งหรือโพสต์ภาพเปลือย) ไม่ให้เข้าถึงผู้ชม

การควบคุมเนื้อหา

Brown ตั้งข้อสังเกตว่าเป็นโอกาสที่พลาดไปซึ่งฟีเจอร์ใหม่ของ Instagram หายากในแอพ ทำให้ผู้คนควบคุมเนื้อหาที่พวกเขารู้สึกสบายใจได้ยากขึ้นมาก ไม่ว่าพวกเขาต้องการดูน้อยลงหรือมากขึ้น เนื้อหาที่ “ละเอียดอ่อน”

“หากเป็นฟีเจอร์ที่ Instagram ต้องการเน้นให้ชัดเจนยิ่งขึ้น ตัวเลือกนี้สามารถสร้างในอินเทอร์เฟซเดียวกันบนโพสต์หรือรีลซึ่งคุณสามารถคลิก 'รายงาน' ได้ นั่นจะเป็นวิธีที่มีประสิทธิภาพมากขึ้นในการแนะนำความละเอียดอ่อนนี้ ควบคุมผู้ที่มีแนวโน้มจะใช้ฟังก์ชันนั้นอยู่แล้ว” เธอกล่าว

คุณสมบัติพิเศษนั้นยอดเยี่ยม แต่สุดท้ายแล้ว อัลกอริธึมกำลังมองหาสิ่งที่เรามีส่วนร่วมด้วย เพื่อตัดสินใจว่าจะแนะนำอะไรต่อไป

ในทางทฤษฎี ฟีเจอร์ของ Instagram ทำให้คุณสามารถควบคุมสิ่งที่คุณเห็น แทนที่จะใช้นโยบายแบบครอบคลุมกับเนื้อหาเหมือนกับแพลตฟอร์มอื่นๆ แต่สุดท้ายแล้ว ผู้ใช้โซเชียลมีเดียสามารถเห็นสิ่งที่พวกเขาต้องการเห็นบนฟีดของพวกเขาได้โดยไม่ต้องใช้นโยบายที่สร้างจากแพลตฟอร์มเหล่านี้

"คุณสมบัติพิเศษนั้นยอดเยี่ยม แต่ในท้ายที่สุด อัลกอริธึมกำลังมองหาสิ่งที่เรามีส่วนร่วมด้วย เพื่อตัดสินใจว่าจะแนะนำอะไรต่อไป" Eric Chow หัวหน้าที่ปรึกษาของ Mashman Ventures บอกกับ Lifewire ในอีเมล.

Chow เสริมว่าการทำอะไรง่ายๆ แค่ให้แพลตฟอร์มรู้ว่าคุณไม่ต้องการเห็นเนื้อหาประเภทใด (ฟีเจอร์ที่หลายแพลตฟอร์มมี) เป็นวิธีที่มีประสิทธิภาพมากที่สุดในการควบคุมด้วยมือของเรา

“ผู้ใช้ต้องรับผิดชอบและตระหนักว่าพวกเขามีส่วนร่วมกับเนื้อหาของพวกเขาอย่างไร ยิ่งเราชอบ แสดงความคิดเห็น แบ่งปัน และบันทึกเนื้อหาในหัวข้อใดหัวข้อหนึ่งมากเท่าใด เราก็ยิ่งได้รับการนำเสนอมากขึ้นเท่านั้น” เขากล่าว