ซื้อกลับบ้านที่สำคัญ
- การวิจัยใหม่ชี้ว่าอาจไม่มีทางที่จะควบคุมปัญญาประดิษฐ์ที่สุดยอดได้
- กระดาษในวารสารระบุว่าการควบคุม AI จะต้องการเทคโนโลยีที่ล้ำหน้ากว่าที่เรามีอยู่ในปัจจุบัน
- ผู้เชี่ยวชาญบางคนบอกว่า AI ที่ชาญฉลาดอย่างแท้จริงอาจมาเร็วกว่าที่เราคิด
ถ้ามนุษย์เคยพัฒนาปัญญาประดิษฐ์ที่ฉลาดล้ำเลิศ นักวิทยาศาสตร์กล่าวอาจไม่มีทางที่จะควบคุมมันได้
AI ได้รับการขนานนามว่าเป็นยารักษาปัญหาของมนุษยชาติหรือการเปิดเผยในรูปแบบเทอร์มิเนเตอร์จนถึงตอนนี้ AI ยังไม่ใกล้เคียงกับความฉลาดระดับมนุษย์ แต่การรักษา AI ขั้นสูงอาจเป็นปัญหาที่ซับซ้อนเกินไปสำหรับมนุษย์หากมีการพัฒนาตามรายงานล่าสุดที่ตีพิมพ์ใน Journal of Artificial Intelligence Research
"เครื่องจักรอัจฉริยะที่ควบคุมโลกได้เหมือนนิยายวิทยาศาสตร์" Manuel Cebrian หนึ่งในผู้เขียนร่วมของหนังสือพิมพ์กล่าวในการแถลงข่าว
"แต่มีเครื่องจักรที่ทำหน้าที่สำคัญบางอย่างอย่างอิสระโดยที่โปรแกรมเมอร์ไม่เข้าใจอย่างถ่องแท้ถึงวิธีที่พวกเขาเรียนรู้ ดังนั้นคำถามจึงเกิดขึ้นว่าสิ่งนี้อาจกลายเป็นสิ่งที่ควบคุมไม่ได้และเป็นอันตรายต่อมนุษยชาติในบางครั้ง"
เร็วๆ นี้ที่ซูเปอร์คอมพิวเตอร์ใกล้ตัวคุณ
วารสารระบุว่าการควบคุม AI จะต้องการเทคโนโลยีที่ล้ำหน้ามากกว่าที่เรามีอยู่ในปัจจุบัน
ในการศึกษาของพวกเขา ทีมงานได้คิดค้นอัลกอริธึมการกักกันเชิงทฤษฎี เพื่อให้แน่ใจว่า AI ที่ฉลาดหลักแหลมไม่สามารถทำร้ายผู้คนได้ในทุกสถานการณ์ โดยจำลองพฤติกรรมของ AI ก่อนแล้วจึงหยุดหากพิจารณาว่าเป็นอันตรายแต่ผู้เขียนพบว่าอัลกอริทึมดังกล่าวไม่สามารถสร้างได้
"หากคุณแยกปัญหาออกเป็นกฎพื้นฐานจากวิทยาการคอมพิวเตอร์เชิงทฤษฎี ปรากฎว่าอัลกอริธึมที่จะสั่ง AI ไม่ให้ทำลายโลกอาจหยุดการดำเนินการของตัวเองโดยไม่ได้ตั้งใจ" Iyad Rahwan ผู้อำนวยการศูนย์มนุษย์และเครื่องจักรที่สถาบัน Max Planck เพื่อการพัฒนามนุษย์ในเยอรมนีกล่าวในการแถลงข่าว
"หากสิ่งนี้เกิดขึ้น คุณจะไม่รู้ว่าอัลกอริธึมการกักกันยังคงวิเคราะห์ภัยคุกคามอยู่หรือหยุดเพื่อกักเก็บ AI ที่เป็นอันตราย ส่งผลให้อัลกอริธึมการกักกันใช้ไม่ได้"
AI ที่ชาญฉลาดอย่างแท้จริงอาจมาเร็วกว่าที่เราคิด Michalis Vazirgiannis ศาสตราจารย์ด้านวิทยาการคอมพิวเตอร์ที่ École Polytechnique ในฝรั่งเศสโต้แย้ง "AI เป็นสิ่งประดิษฐ์ของมนุษย์ แต่กำลังกลายเป็นหน่วยงานอิสระอย่างรวดเร็ว" เขากล่าวในอีเมลถึง Lifewire
"ประเด็นสำคัญคือถ้า/เมื่อภาวะเอกฐานเกิดขึ้น (เช่น เมื่อตัวแทน AI จะมีจิตสำนึกเป็นตัวตน) ดังนั้นพวกเขาจะเรียกร้องความเป็นอิสระ การควบคุมตนเอง และการครอบงำในที่สุด"
ภาวะเอกฐานกำลังมา
วาซิร์เจียนิสไม่ได้อยู่คนเดียวในการทำนายการมาถึงของสุดยอด AI ผู้เชื่อที่แท้จริงในการคุกคามของ AI ชอบพูดคุยเกี่ยวกับ "ภาวะเอกฐาน" ซึ่ง Vazirgiannis อธิบายคือประเด็นที่ AI จะเข้ามาแทนที่ความฉลาดของมนุษย์ และ "ว่าอัลกอริทึมของ AI จะตระหนักถึงการมีอยู่ของพวกเขาและเริ่มทำตัวเห็นแก่ตัวและร่วมมือกัน"
ตามที่ Ray Kurzweil ผู้อำนวยการฝ่ายวิศวกรรมของ Google กล่าวว่าภาวะเอกฐานจะมาถึงก่อนกลางศตวรรษที่ 21 "ปี 2029 เป็นวันที่สอดคล้องกันที่ฉันคาดการณ์ไว้เมื่อ AI จะผ่านการทดสอบทัวริงที่ถูกต้อง ดังนั้นจึงบรรลุระดับสติปัญญาของมนุษย์" เคิร์ซไวล์กล่าวกับลัทธิฟิวเจอร์ริสม์
ถ้าเราทำความสะอาดบ้านตัวเองไม่ได้ เราควรให้ AI ปฏิบัติตามรหัสอะไร
"ฉันได้กำหนดวันที่ 2045 สำหรับ 'Singularity' ซึ่งเป็นเวลาที่เราจะเพิ่มสติปัญญาที่มีประสิทธิภาพของเราเป็นพันล้านเท่าด้วยการผสานเข้ากับสติปัญญาที่เราสร้างขึ้น"
แต่ไม่ใช่ผู้เชี่ยวชาญ AI ทุกคนที่คิดว่าเครื่องจักรอัจฉริยะเป็นภัยคุกคาม AI ที่อยู่ระหว่างการพัฒนามีแนวโน้มที่จะเป็นประโยชน์สำหรับการพัฒนายาและไม่แสดงความฉลาดที่แท้จริง ที่ปรึกษาด้าน AI Emmanuel Maggiori กล่าวในการสัมภาษณ์ทางอีเมล "มีโฆษณาจำนวนมากเกี่ยวกับ AI ซึ่งทำให้ดูเหมือนเป็นการปฏิวัติจริงๆ" เขากล่าวเสริม "ระบบ AI ในปัจจุบันไม่แม่นยำเท่าที่มีการเผยแพร่ และทำผิดพลาดที่มนุษย์ไม่มีวันทำ"
ควบคุม AI ตอนนี้
การควบคุม AI เพื่อไม่ให้หลุดพ้นจากการควบคุมของเราอาจเป็นเรื่องยาก Vazirgiannis กล่าว บริษัทต่างๆ แทนที่จะเป็นรัฐบาล ควบคุมทรัพยากรที่ขับเคลื่อน AI “แม้แต่อัลกอริธึมเองก็มักจะถูกผลิตและนำไปใช้ในห้องปฏิบัติการวิจัยของหน่วยงานขนาดใหญ่และทรงพลังเหล่านี้ ซึ่งมักจะเป็นองค์กรข้ามชาติ” เขากล่าว
"ดังนั้นจึงเห็นได้ชัดว่ารัฐบาลของรัฐมีการควบคุมทรัพยากรที่จำเป็นในการควบคุม AI น้อยลงเรื่อยๆ"
ผู้เชี่ยวชาญบางคนกล่าวว่าในการควบคุม AI ที่ชาญฉลาด มนุษย์จะต้องจัดการทรัพยากรการประมวลผลและพลังงานไฟฟ้า "ภาพยนตร์นิยายวิทยาศาสตร์อย่าง The Matrix สร้างคำทำนายเกี่ยวกับอนาคตที่เลวร้ายที่มนุษย์ถูกใช้โดย AI เป็นแหล่งพลังงานชีวภาพ" Vazirgiannis กล่าว
"ถึงแม้จะเป็นไปไม่ได้ในระยะไกล แต่มนุษยชาติควรตรวจสอบให้แน่ใจว่ามีการควบคุมทรัพยากรการประมวลผลที่เพียงพอ (เช่น กลุ่มคอมพิวเตอร์, GPU, ซูเปอร์คอมพิวเตอร์, เครือข่าย/การสื่อสาร) และแน่นอนว่าโรงไฟฟ้าที่จ่ายไฟฟ้าได้อย่างแท้จริง เป็นอันตรายต่อการทำงานของ AI"
ปัญหาเกี่ยวกับการควบคุม AI คือนักวิจัยมักไม่เข้าใจว่าระบบดังกล่าวตัดสินใจอย่างไร Michael Berthold ผู้ร่วมก่อตั้งและซีอีโอของ KNIME บริษัทซอฟต์แวร์ด้านวิทยาศาสตร์ข้อมูล กล่าวในการสัมภาษณ์ทางอีเมล "ถ้าเราไม่ทำ เราจะ 'ควบคุม' ได้อย่างไร"
เขาเสริมว่า "เราไม่เข้าใจว่าการตัดสินใจที่แตกต่างกันโดยสิ้นเชิงนั้นขึ้นอยู่กับเราเมื่อไร"
วิธีเดียวที่จะควบคุมความเสี่ยงของการใช้ AI คือต้องแน่ใจว่ามันถูกใช้เมื่อความเสี่ยงนั้นสามารถจัดการได้เท่านั้น Berthold กล่าว "ลองมองให้แตกต่างออกไป สองตัวอย่างสุดโต่ง: อย่านำ AI มาดูแลโรงไฟฟ้านิวเคลียร์ของคุณ ซึ่งข้อผิดพลาดเล็กน้อยอาจมีผลข้างเคียงที่ร้ายแรง" เขากล่าวเสริม
"ในทางกลับกัน AI คาดการณ์ว่าอุณหภูมิห้องของคุณควรปรับขึ้นหรือลงเล็กน้อย อาจคุ้มกับความเสี่ยงเล็กน้อยเพื่อประโยชน์ในการอยู่อาศัยอย่างสบาย"
ถ้าเราไม่สามารถควบคุม AI ได้ เราก็ควรสอนมารยาทให้ดีกว่า Peter Scott อดีตวิศวกรคอมพิวเตอร์ของ NASA กล่าวในการสัมภาษณ์ทางอีเมล “ในที่สุด เราไม่สามารถรับประกันความสามารถในการควบคุมของ AI ได้มากไปกว่าที่เราจะสามารถรับรองได้ว่าลูกหลานของเรา” เขากล่าว
"เราเลี้ยงมันให้ดีและหวังให้ดีที่สุด จนถึงตอนนี้พวกเขายังไม่ทำลายโลก การจะเลี้ยงมันให้ดี เราต้องเข้าใจจริยธรรมให้มากขึ้น ถ้าเราไม่สามารถทำความสะอาดบ้านของเราเองได้ล่ะ รหัสเราควรขอให้ AI ปฏิบัติตามหรือไม่"
แต่ความหวังทั้งหมดไม่ได้สูญหายไปสำหรับเผ่าพันธุ์มนุษย์ Yonatan Wexler นักวิจัยด้าน AI รองประธานบริหารฝ่าย R&D ของ OrCam กล่าว “ในขณะที่ความก้าวหน้านั้นน่าประทับใจจริงๆ ความเชื่อส่วนตัวของฉันก็คือไม่ควรประเมินความฉลาดของมนุษย์ต่ำไป” เขากล่าวในการสัมภาษณ์ทางอีเมล "เราในฐานะสายพันธุ์ได้สร้างสิ่งที่น่าอัศจรรย์ทีเดียว รวมทั้ง AI ด้วย"
การค้นหา AI ที่ฉลาดกว่าเดิมยังคงดำเนินต่อไป แต่ควรพิจารณาว่าเราควบคุมการสร้างสรรค์ของเราอย่างไรก่อนที่จะสายเกินไป