ซื้อกลับบ้านที่สำคัญ
- มีรายงานว่าบริษัทซอฟต์แวร์กำลังรวบรวมข้อมูลโซเชียลมีเดียเพื่อสร้างโปรไฟล์ที่สามารถใช้ระบุตัวบุคคลที่มีความเสี่ยงด้านความปลอดภัย
- Voyager Labs ผนึกข้อตกลงสำคัญกับหน่วยงานรัฐบาลญี่ปุ่น
- แต่ผู้เชี่ยวชาญเตือนว่าซอฟต์แวร์ทำนาย AI อาจถูกหลอกได้
ข้อมูลออนไลน์ของคุณอาจถูกใช้เพื่อคาดเดาว่าคุณอาจก่ออาชญากรรมหรือไม่
Voyager Labs มีรายงานว่ากำลังรวบรวมข้อมูลโซเชียลมีเดียเพื่อสร้างโปรไฟล์ที่สามารถใช้เพื่อระบุตัวผู้ที่มีความเสี่ยงด้านความปลอดภัยเป็นส่วนหนึ่งของความพยายามที่เพิ่มขึ้นในการใช้ปัญญาประดิษฐ์ (AI) เพื่อตรวจสอบอาชญากรที่อาจเกิดขึ้น แต่ผู้เชี่ยวชาญบางคนกล่าวว่าการเคลื่อนไหวนั้นเต็มไปด้วยปัญหาที่อาจเกิดขึ้น
"มันยากมากที่จะคาดเดาพฤติกรรมของมนุษย์" Matthew Carr นักวิจัยด้านความปลอดภัยที่ Atumcell Group กล่าวกับ Lifewire ในการสัมภาษณ์ทางอีเมล "เราไม่สามารถแม้แต่จะคาดเดาพฤติกรรมของเราเองได้ นับประสาพฤติกรรมของคนอื่น ฉันคิดว่าเป็นไปได้ที่ AI จะสามารถนำมาใช้ในอนาคตเพื่อจุดประสงค์นี้ แต่เรายังห่างไกลจากความสามารถที่จะทำเช่นนั้นในปัจจุบัน"
กำลังสร้างโปรไฟล์
ตามที่ The Guardian รายงานเมื่อเร็วๆ นี้ กรมตำรวจลอสแองเจลิสได้ทำการตรวจสอบโดยใช้ซอฟต์แวร์คาดการณ์อาชญากรรมของ Voyager Lab บริษัทยังประกาศด้วยว่าได้ปิดผนึกข้อตกลงที่สำคัญกับหน่วยงานรัฐบาลญี่ปุ่น
ข้อตกลงของญี่ปุ่นทำให้หน่วยงานของรัฐมีแพลตฟอร์มการสอบสวนที่ใช้ AI ซึ่งวิเคราะห์ข้อมูลจำนวนมหาศาลจากแหล่งใดๆ รวมถึงข้อมูลเปิดและข้อมูลเชิงลึก
"ฉันดีใจที่เราได้ร่วมมือกันต่อสู้กับการก่อการร้ายและอาชญากรรม" Divya Khangarot กรรมการผู้จัดการ APAC ของ Voyager Labs กล่าวในการแถลงข่าว "ด้วยการใช้โซลูชันอัจฉริยะอันล้ำสมัยของ Voyager Lab ลูกค้าของเราจะได้รับความสามารถเฉพาะตัวในการระบุและขัดขวางภัยคุกคามที่อาจเกิดขึ้นในเชิงรุก เรานำชั้นข้อมูลเชิงลึกเพิ่มเติมเชิงลึกในการสืบสวนโดยใช้การผสมผสานระหว่าง AI, Machine Learning และ OSINT เพื่อเปิดเผยเส้นทางที่ซ่อนอยู่ ข้อมูลที่ถูกละเมิด และนักแสดงที่ไม่ดี"
ไม่ฉลาดเหรอ
แต่ในการสัมภาษณ์ทางอีเมล Matt Heisie ผู้ร่วมก่อตั้ง Ferret.ai ซึ่งใช้ AI เพื่อทำนายผู้กระทำความผิดด้วย ตั้งข้อสงสัยเกี่ยวกับคำกล่าวอ้างของ Voyager Labs
"มีความเชื่อมโยงที่ชัดเจนระหว่างบันทึกการจับกุมกับพฤติกรรมอาชญากรในอนาคตหรือไม่ เนื่องจากมีจุดดำในการทดสอบและการพัฒนาของเนื้องอก" เขาพูดว่า. “ลองนึกถึงความสับสนที่อาจเกิดขึ้นทั้งหมดที่นำไปสู่การจับกุม นั่นคือย่านที่บุคคลนั้นอาศัยอยู่ ปริมาณและคุณภาพ แม้กระทั่งอคติของตำรวจในพื้นที่นั้นอายุของบุคคล เพศ รูปลักษณ์ภายนอก ล้วนมีผลกระทบต่อความเป็นไปได้ที่บุคคลนั้นมีประวัติการจับกุม โดยแยกออกจากความโน้มเอียงที่แท้จริงในการก่ออาชญากรรมที่เราพยายามคาดการณ์"
จำเลยที่มีทนายความที่ดีกว่ามีแนวโน้มที่จะสามารถระงับบันทึกไม่ให้เปิดเผยต่อสาธารณะได้ Heisie กล่าว เขตอำนาจศาลบางแห่งจำกัดการปล่อยภาพ mugshots หรือบันทึกการจับกุมเพื่อปกป้องผู้ต้องหา
"คอมพิวเตอร์จะเรียนรู้จากข้อมูลที่คุณให้มา และรวมอคติทั้งหมดที่เข้าไปในการรวบรวมข้อมูลนั้น…"
"ทั้งหมดนี้เพิ่มความลำเอียงให้กับอัลกอริทึม" เขากล่าวเสริม "คอมพิวเตอร์จะเรียนรู้จากข้อมูลที่คุณให้ และรวมอคติทั้งหมดที่เข้าสู่การรวบรวมข้อมูลนั้นเข้าในการเรียนรู้และการตีความ"
มีการพยายามสร้างอาชญากรรมที่ทำนาย AI หลายครั้งและด้วยผลลัพธ์ที่น่าอับอายบ่อยครั้ง Heisie กล่าว
COMPAS อัลกอริทึมที่บังคับใช้กฎหมายเพื่อคาดการณ์การกระทำผิดซ้ำ มักใช้ในการตัดสินโทษและประกันตัว ต้องเผชิญกับเรื่องอื้อฉาวย้อนหลังไปถึงปี 2559 เนื่องจากอคติทางเชื้อชาติ โดยคาดการณ์ว่าจำเลยผิวดำมีความเสี่ยงที่จะเกิดการกระทำผิดซ้ำมากกว่าที่เคยทำ และในทางกลับกันสำหรับจำเลยผิวขาว
นักเทคโนโลยีและนักวิชาการกว่า 1, 000 คน รวมถึงนักวิชาการและผู้เชี่ยวชาญด้าน AI จาก Harvard, MIT, Google และ Microsoft ออกมาพูดในปี 2020 กับบทความที่อ้างว่านักวิจัยได้พัฒนาอัลกอริธึมที่สามารถทำนายอาชญากรรมโดยอาศัยเพียง ใบหน้าของบุคคลนั้นกล่าวว่าการเผยแพร่การศึกษาดังกล่าวเป็นการตอกย้ำความลำเอียงทางเชื้อชาติที่มีอยู่ก่อนในระบบยุติธรรมทางอาญา Heisie ตั้งข้อสังเกต
จีนเป็นตลาดที่ใหญ่ที่สุดและเติบโตเร็วที่สุดสำหรับเทคโนโลยีประเภทนี้ สาเหตุหลักมาจากการเข้าถึงข้อมูลส่วนตัวอย่างแพร่หลาย โดยมีกล้องวงจรปิดมากกว่า 200 ล้านตัวและการวิจัย AI ขั้นสูงที่มุ่งเน้นไปที่ปัญหานี้มาหลายปี Heisie กล่าว.ขณะนี้ระบบต่างๆ เช่น Police Cloud ของ CloudWalk ใช้ในการทำนายและติดตามอาชญากรและระบุหน่วยงานบังคับใช้กฎหมาย
"อย่างไรก็ตาม มีรายงานความลำเอียงมากมายที่นั่นเช่นกัน" Heisie กล่าว
Heisie เสริมว่าบริษัทของเขาดูแลจัดการข้อมูลที่เข้าไปอย่างระมัดระวัง และไม่ใช้ภาพ mugshots หรือบันทึกการจับกุม "เน้นไปที่เกณฑ์วัตถุประสงค์มากกว่า"
"AI ของเราเรียนรู้จากข้อมูลที่รวบรวมไว้ แต่ที่สำคัญกว่านั้น มันยังเรียนรู้จากผู้คน ซึ่งพวกเขาเองวิเคราะห์ จัดการ และประเมินระเบียน และบอกเราเกี่ยวกับการโต้ตอบของพวกเขากับผู้อื่น" เขากล่าวเสริม "เรายังรักษาความโปร่งใสอย่างสมบูรณ์และการเข้าถึงแอปพลิเคชันของเราแบบสาธารณะและฟรี (ให้เร็วที่สุดเท่าที่จะทำได้ในรุ่นเบต้า) และยินดีต้อนรับข้อมูลเชิงลึกเกี่ยวกับกระบวนการและขั้นตอนของเรา"