AI สามารถติดตามลูกหลานที่เป็นอันตรายได้อย่างไร

สารบัญ:

AI สามารถติดตามลูกหลานที่เป็นอันตรายได้อย่างไร
AI สามารถติดตามลูกหลานที่เป็นอันตรายได้อย่างไร
Anonim

ซื้อกลับบ้านที่สำคัญ

  • กระดาษใหม่อ้างว่าปัญญาประดิษฐ์สามารถระบุได้ว่าโครงการวิจัยใดที่อาจต้องการกฎระเบียบมากกว่าโครงการอื่นๆ
  • มันเป็นส่วนหนึ่งของความพยายามที่เพิ่มขึ้นในการค้นหาว่า AI ชนิดใดสามารถเป็นอันตรายได้
  • ผู้เชี่ยวชาญคนหนึ่งบอกว่าอันตรายที่แท้จริงของ AI คือมันอาจทำให้มนุษย์เป็นใบ้ได้

Image
Image

ปัญญาประดิษฐ์ (AI) มีประโยชน์มากมาย แต่ก็มีอันตรายบางอย่างเช่นกัน และตอนนี้ นักวิจัยได้เสนอวิธีการจับตาดูการสร้างสรรค์ทางคอมพิวเตอร์ของพวกเขา

ทีมงานระหว่างประเทศกล่าวในรายงานฉบับใหม่ว่า AI สามารถระบุได้ว่าโครงการวิจัยประเภทใดที่อาจต้องการกฎระเบียบมากกว่าโครงการอื่น นักวิทยาศาสตร์ใช้แบบจำลองที่ผสมผสานแนวคิดจากชีววิทยาและคณิตศาสตร์เข้าด้วยกัน และเป็นส่วนหนึ่งของความพยายามที่เพิ่มขึ้นเพื่อค้นหาว่า AI ชนิดใดที่อาจเป็นอันตรายได้

"แน่นอนว่าในขณะที่การใช้ 'ไซไฟ' ที่เป็นอันตรายอาจเกิดขึ้นหากเราตัดสินใจเช่นนั้น […] สิ่งที่ทำให้ AI เป็นอันตราย ไม่ใช่ AI เอง แต่เป็น [วิธีที่เราใช้], " Thierry Rayna ประธานฝ่ายเทคโนโลยีเพื่อการเปลี่ยนแปลงที่ École Polytechnique ในฝรั่งเศส กล่าวกับ Lifewire ในการสัมภาษณ์ทางอีเมล "การนำ AI ไปใช้อาจเป็นการเสริมความสามารถ (เช่น เป็นการตอกย้ำความเกี่ยวข้องของทักษะและความรู้ของมนุษย์/คนงาน) หรือการทำลายความสามารถ นั่นคือ AI ทำให้ทักษะและความรู้ที่มีอยู่มีประโยชน์น้อยลงหรือล้าสมัย"

เก็บแท็บ

ผู้เขียนบทความล่าสุดเขียนในโพสต์ว่าพวกเขาสร้างแบบจำลองเพื่อจำลองการแข่งขัน AI สมมุติ พวกเขาทำการจำลองหลายร้อยครั้งเพื่อพยายามคาดการณ์ว่าการแข่งขัน AI ในโลกแห่งความเป็นจริงจะออกมาเป็นอย่างไร

"ตัวแปรที่เราพบว่ามีความสำคัญเป็นพิเศษคือ "ระยะเวลา" ของการแข่งขัน ซึ่งเป็นเวลาที่เผ่าพันธุ์จำลองของเราใช้เพื่อบรรลุวัตถุประสงค์ (ผลิตภัณฑ์ AI ที่ใช้งานได้) " นักวิทยาศาสตร์เขียน "เมื่อการแข่งขัน AI บรรลุวัตถุประสงค์อย่างรวดเร็ว เราพบว่าผู้เข้าแข่งขันที่เราตั้งรหัสให้มองข้ามมาตรการป้องกันด้านความปลอดภัยเสมอจะชนะเสมอ"

ในทางกลับกัน นักวิจัยพบว่าโครงการ AI ระยะยาวไม่อันตรายเพราะผู้ชนะไม่ใช่คนที่มองข้ามความปลอดภัยเสมอไป "จากการค้นพบนี้ เป็นสิ่งสำคัญสำหรับผู้กำกับดูแลในการกำหนดระยะเวลาการแข่งขัน AI ที่แตกต่างกัน โดยใช้กฎระเบียบที่แตกต่างกันตามช่วงเวลาที่คาดหวัง" พวกเขาเขียน "ผลการวิจัยของเราชี้ให้เห็นว่ากฎข้อเดียวสำหรับการแข่งขัน AI ทั้งหมด ตั้งแต่การวิ่งระยะสั้นจนถึงมาราธอน จะนำไปสู่ผลลัพธ์บางอย่างที่ห่างไกลจากอุดมคติ"

David Zhao กรรมการผู้จัดการของ Coda Strategy บริษัทที่ให้คำปรึกษาด้าน AI กล่าวในการสัมภาษณ์ทางอีเมลกับ Lifewire ว่าการระบุ AI ที่เป็นอันตรายอาจเป็นเรื่องยาก ความท้าทายอยู่ในความจริงที่ว่าแนวทางสมัยใหม่ของ AI ใช้แนวทางการเรียนรู้เชิงลึก

"เราทราบดีว่าการเรียนรู้เชิงลึกให้ผลลัพธ์ที่ดีกว่าในหลายกรณีการใช้งาน เช่น การตรวจจับภาพหรือการรู้จำคำพูด" Zhao กล่าว "อย่างไรก็ตาม เป็นไปไม่ได้ที่มนุษย์จะเข้าใจว่าอัลกอริธึมการเรียนรู้เชิงลึกทำงานอย่างไรและให้ผลลัพธ์อย่างไร ดังนั้นจึงเป็นเรื่องยากที่จะบอกได้ว่า AI ที่ให้ผลลัพธ์ที่ดีนั้นเป็นอันตรายหรือไม่ เพราะเป็นไปไม่ได้ที่มนุษย์จะเข้าใจว่าเกิดอะไรขึ้น"

ซอฟต์แวร์อาจเป็น "อันตราย" ได้เมื่อใช้ในระบบที่สำคัญ ซึ่งมีช่องโหว่ที่ผู้ไม่หวังดีสามารถใช้ประโยชน์หรือให้ผลลัพธ์ที่ไม่ถูกต้องได้ Matt Shea ผู้อำนวยการฝ่ายกลยุทธ์ของบริษัท AI MixMode กล่าวผ่านอีเมล เขาเสริมว่า AI ที่ไม่ปลอดภัยอาจส่งผลให้เกิดการจัดหมวดหมู่ผลลัพธ์ที่ไม่เหมาะสม การสูญเสียข้อมูล ผลกระทบทางเศรษฐกิจ หรือความเสียหายทางกายภาพ

"ด้วยซอฟต์แวร์แบบดั้งเดิม นักพัฒนาจะเขียนโค้ดอัลกอริธึมที่สามารถตรวจสอบได้โดยบุคคลเพื่อหาวิธีอุดช่องโหว่หรือแก้ไขจุดบกพร่องโดยดูจากซอร์สโค้ด" Shea กล่าว"ด้วย AI ลอจิกส่วนใหญ่ถูกสร้างขึ้นจากตัวข้อมูลเอง เข้ารหัสลงในโครงสร้างข้อมูล เช่น โครงข่ายประสาทเทียม และอื่นๆ ส่งผลให้ระบบต่างๆ กลายเป็น "กล่องดำ" ที่ไม่สามารถตรวจสอบเพื่อค้นหาและแก้ไขช่องโหว่ได้ เหมือนซอฟต์แวร์ทั่วไป"

อันตรายข้างหน้า?

ในขณะที่ AI ถูกวาดภาพในภาพยนตร์อย่าง The Terminator ว่าเป็นพลังชั่วร้ายที่ตั้งใจจะทำลายมนุษยชาติ แต่อันตรายที่แท้จริงอาจดูธรรมดากว่า ผู้เชี่ยวชาญกล่าว เช่น Rayna แนะนำว่า AI สามารถทำให้เราโง่ได้

“มันสามารถกีดกันมนุษย์จากการฝึกสมองและพัฒนาความเชี่ยวชาญ” เขากล่าว “คุณจะเป็นผู้เชี่ยวชาญในการร่วมลงทุนได้อย่างไรถ้าคุณไม่ใช้เวลาส่วนใหญ่ในการอ่านแอพพลิเคชั่นสตาร์ทอัพ? ที่แย่ไปกว่านั้น AI คือ 'กล่องดำ' ที่ฉาวโฉ่และอธิบายได้เล็กน้อย การไม่รู้ว่าเหตุใดจึงตัดสินใจใช้ AI แบบใดแบบหนึ่ง หมายความว่าจะเรียนรู้จากมันได้น้อยมาก เช่นเดียวกับที่คุณไม่สามารถเป็นนักวิ่งผู้เชี่ยวชาญได้ด้วยการขับรถเซกเวย์ไปรอบๆ สนามกีฬา”

มันยากที่จะบอกได้ว่า AI ที่ให้ผลลัพธ์ที่ดีนั้นอันตรายหรือไม่ เพราะเป็นไปไม่ได้ที่มนุษย์จะเข้าใจว่าเกิดอะไรขึ้น

บางทีภัยคุกคามในทันทีจาก AI คือความเป็นไปได้ที่จะให้ผลลัพธ์ที่มีอคติ Lyle Solomon ทนายความที่เขียนเกี่ยวกับนัยทางกฎหมายของ AI กล่าวในการสัมภาษณ์ทางอีเมล

"AI อาจช่วยในการแบ่งแยกทางสังคมได้ลึกขึ้น AI ถูกสร้างขึ้นโดยพื้นฐานจากข้อมูลที่รวบรวมจากมนุษย์" โซโลมอนกล่าวเสริม "[แต่] แม้จะมีข้อมูลมากมาย แต่ก็มีส่วนย่อยน้อยที่สุดและจะไม่รวมถึงสิ่งที่ทุกคนคิด ดังนั้นข้อมูลที่รวบรวมจากความคิดเห็น ข้อความสาธารณะ บทวิจารณ์ ฯลฯ ที่มีอคติโดยธรรมชาติจะทำให้ AI ขยายการเลือกปฏิบัติและความเกลียดชัง"