ทำไมซอฟต์แวร์อ่านอารมณ์จึงสามารถละเมิดความเป็นส่วนตัวของคุณได้

สารบัญ:

ทำไมซอฟต์แวร์อ่านอารมณ์จึงสามารถละเมิดความเป็นส่วนตัวของคุณได้
ทำไมซอฟต์แวร์อ่านอารมณ์จึงสามารถละเมิดความเป็นส่วนตัวของคุณได้
Anonim

ซื้อกลับบ้านที่สำคัญ

  • Zoom รายงานว่าจะใช้ AI ในการประเมินความรู้สึกหรือระดับการมีส่วนร่วมของผู้ใช้
  • กลุ่มสิทธิมนุษยชนขอให้ Zoom ทบทวนแผนใหม่เนื่องจากข้อกังวลเรื่องความเป็นส่วนตัวและความปลอดภัยของข้อมูล
  • บางบริษัทยังใช้ซอฟต์แวร์ตรวจจับอารมณ์ระหว่างการสัมภาษณ์เพื่อประเมินว่าผู้ใช้ให้ความสนใจหรือไม่
Image
Image

การใช้ปัญญาประดิษฐ์ (AI) ที่เพิ่มขึ้นเพื่อติดตามอารมณ์ของมนุษย์ทำให้เกิดความกังวลเรื่องความเป็นส่วนตัว

องค์กรสิทธิมนุษยชนขอให้ Zoom ชะลอแผนการนำ AI วิเคราะห์อารมณ์มาใช้ในซอฟต์แวร์การประชุมทางวิดีโอ มีรายงานว่าบริษัทจะใช้ AI ในการประเมินความรู้สึกหรือระดับการมีส่วนร่วมของผู้ใช้

"ผู้เชี่ยวชาญยอมรับว่าการวิเคราะห์อารมณ์ไม่ได้ผล" กลุ่มสมาคมสิทธิมนุษยชน รวมทั้ง ACLU เขียนในจดหมายถึง Zoom "การแสดงออกทางสีหน้ามักจะตัดขาดจากอารมณ์ที่อยู่ข้างใต้ และการวิจัยพบว่าแม้แต่มนุษย์ก็ไม่สามารถอ่านหรือวัดอารมณ์ของผู้อื่นได้อย่างถูกต้องในบางครั้ง การพัฒนาเครื่องมือนี้จะเพิ่มความน่าเชื่อถือให้กับวิทยาศาสตร์เทียม และทำให้ชื่อเสียงของคุณตกอยู่ในความเสี่ยง"

Zoom ไม่ได้ตอบกลับคำร้องขอความคิดเห็นโดย Lifewire ในทันที

คอยติดตามอารมณ์ของคุณ

ตามบทความโปรโตคอล ระบบตรวจสอบการซูมที่เรียกว่า Q for Sales จะตรวจสอบอัตราส่วนเวลาสนทนาของผู้ใช้ เวลาตอบสนองล่าช้า และการเปลี่ยนแปลงของผู้พูดบ่อยๆ เพื่อติดตามว่าบุคคลนั้นมีส่วนร่วมมากน้อยเพียงใดZoom จะใช้ข้อมูลนี้เพื่อกำหนดคะแนนระหว่างศูนย์ถึง 100 โดยคะแนนที่สูงกว่าบ่งชี้ถึงการมีส่วนร่วมหรือความเชื่อมั่นที่สูงขึ้น

กลุ่มสิทธิมนุษยชนอ้างว่าซอฟต์แวร์อาจเลือกปฏิบัติต่อผู้ทุพพลภาพหรือกลุ่มชาติพันธุ์บางกลุ่มโดยสมมติว่าทุกคนใช้การแสดงออกทางสีหน้า รูปแบบเสียง และภาษากายที่เหมือนกันในการสื่อสาร กลุ่มยังแนะนำว่าซอฟต์แวร์อาจเป็นความเสี่ยงด้านความปลอดภัยของข้อมูล

Image
Image

"การเก็บข้อมูลส่วนบุคคลอย่างลึกซึ้งอาจทำให้หน่วยงานใด ๆ ที่ใช้เทคโนโลยีนี้เป็นเป้าหมายในการสอดแนมหน่วยงานของรัฐและแฮกเกอร์ที่เป็นอันตราย" ตามจดหมาย

Julia Stoyanovich ศาสตราจารย์ด้านวิทยาการคอมพิวเตอร์และวิศวกรรมที่มหาวิทยาลัยนิวยอร์กบอกกับ Lifewire ในการสัมภาษณ์ทางอีเมลว่าเธอสงสัยเกี่ยวกับการอ้างสิทธิ์เบื้องหลังการตรวจจับอารมณ์

"ฉันไม่เห็นว่าเทคโนโลยีดังกล่าวทำงานได้อย่างไร - การแสดงออกทางอารมณ์ของผู้คนเป็นปัจเจกมาก ขึ้นอยู่กับวัฒนธรรมอย่างมาก และเฉพาะบริบทมาก" สโตยาโนวิชกล่าว“แต่บางทีที่สำคัญกว่านั้น ฉันไม่เห็นว่าทำไมเราถึงต้องการให้เครื่องมือเหล่านี้ทำงาน กล่าวอีกนัยหนึ่ง เราจะมีปัญหามากขึ้นหากพวกเขาทำงานได้ดี แต่บางทีก่อนที่จะคิดถึงความเสี่ยง เราควร ถาม-อะไรคือประโยชน์ที่เป็นไปได้ของเทคโนโลยีดังกล่าว"

Zoom ไม่ใช่บริษัทเดียวที่ใช้ซอฟต์แวร์ตรวจจับอารมณ์ Theo Wills ผู้อำนวยการอาวุโสด้านความเป็นส่วนตัวของ Kuma LLC ซึ่งเป็นบริษัทที่ปรึกษาด้านความเป็นส่วนตัวและความปลอดภัย บอกกับ Lifewire ทางอีเมลว่ามีการใช้ซอฟต์แวร์เพื่อตรวจจับอารมณ์ในระหว่างการสัมภาษณ์เพื่อประเมินว่าผู้ใช้ให้ความสนใจหรือไม่ นอกจากนี้ยังมีการนำร่องในอุตสาหกรรมการขนส่งเพื่อตรวจสอบว่าคนขับมีอาการง่วงหรือไม่ บนแพลตฟอร์มวิดีโอเพื่อวัดความสนใจและคำแนะนำที่ปรับแต่งให้เหมาะสม และในบทแนะนำการศึกษาเพื่อพิจารณาว่าวิธีการสอนเฉพาะนั้นมีส่วนร่วมหรือไม่

Wills โต้แย้งว่าการโต้เถียงกันเกี่ยวกับซอฟต์แวร์ตรวจสอบอารมณ์นั้นเป็นคำถามเกี่ยวกับจริยธรรมของข้อมูลมากกว่าความเป็นส่วนตัว เธอบอกว่ามันเกี่ยวกับระบบในการตัดสินใจในโลกแห่งความเป็นจริงตามลางสังหรณ์

"ด้วยเทคโนโลยีนี้ คุณกำลังคิดว่าเหตุผลที่ฉันมีการแสดงออกที่เฉพาะเจาะจงบนใบหน้าของฉัน แต่แรงผลักดันเบื้องหลังการแสดงออกนั้นแตกต่างกันอย่างมากเนื่องจากสิ่งต่างๆ เช่น การเลี้ยงดูทางสังคมหรือวัฒนธรรม พฤติกรรมครอบครัว ประสบการณ์ในอดีต หรือความกังวลใจ ในขณะนี้” วิลส์กล่าวเสริม "การอิงอัลกอริทึมบนสมมติฐานมีข้อบกพร่องโดยเนื้อแท้และอาจเลือกปฏิบัติได้ ประชากรจำนวนมากไม่ได้แสดงอยู่ในกลุ่มประชากรที่อัลกอริทึมใช้ และจำเป็นต้องจัดลำดับความสำคัญของการนำเสนอที่เหมาะสมก่อนจึงควรใช้"

ข้อควรปฏิบัติ

ปัญหาที่เกิดจากซอฟต์แวร์ติดตามอารมณ์อาจใช้ได้จริงและในทางทฤษฎี Matt Heisie ผู้ร่วมก่อตั้ง Ferret.ai ซึ่งเป็นแอพที่ขับเคลื่อนด้วย AI ที่ให้ข้อมูลความสัมพันธ์บอกกับ Lifewire ในอีเมลว่าผู้ใช้จำเป็นต้องถามว่าการวิเคราะห์ใบหน้าทำที่ใดและมีการจัดเก็บข้อมูลใดบ้าง กำลังศึกษาเกี่ยวกับการบันทึกการโทร ประมวลผลในระบบคลาวด์ หรือบนอุปกรณ์ในพื้นที่หรือไม่

นอกจากนี้ Heisie ยังถามอีกว่า ขณะที่อัลกอริทึมเรียนรู้ ข้อมูลใดที่รวบรวมเกี่ยวกับใบหน้าของบุคคลหรือการเคลื่อนไหวที่อาจคลี่คลายออกจากอัลกอริทึมและใช้เพื่อสร้างไบโอเมตริกซ์ของใครบางคนขึ้นใหม่ บริษัทจัดเก็บสแนปชอตเพื่อตรวจสอบหรือตรวจสอบการเรียนรู้ของอัลกอริธึม และผู้ใช้ได้รับแจ้งถึงข้อมูลอนุพันธ์ใหม่นี้หรือรูปภาพที่จัดเก็บอาจถูกรวบรวมจากการเรียกของพวกเขาหรือไม่

"สิ่งเหล่านี้ล้วนเป็นปัญหาที่หลายบริษัทแก้ไข แต่ก็มีบริษัทที่ได้รับผลกระทบจากเรื่องอื้อฉาวเมื่อปรากฏว่าพวกเขาไม่ได้ทำอย่างถูกต้อง" Heisie กล่าว "Facebook เป็นกรณีที่สำคัญที่สุดของบริษัทที่ยกเลิกแพลตฟอร์มการจดจำใบหน้าเนื่องจากความกังวลเกี่ยวกับความเป็นส่วนตัวของผู้ใช้ ขณะนี้ Meta บริษัทแม่กำลังดึงฟีเจอร์ AR จาก Instagram ในเขตอำนาจศาลบางแห่ง เช่น อิลลินอยส์และเท็กซัส เกี่ยวกับกฎหมายความเป็นส่วนตัวที่เกี่ยวกับข้อมูลไบโอเมตริก"