อาการประสาทหลอนช่วยให้ AI เข้าใจคุณดีขึ้นได้อย่างไร

สารบัญ:

อาการประสาทหลอนช่วยให้ AI เข้าใจคุณดีขึ้นได้อย่างไร
อาการประสาทหลอนช่วยให้ AI เข้าใจคุณดีขึ้นได้อย่างไร
Anonim

ซื้อกลับบ้านที่สำคัญ

  • รูปแบบการเรียนรู้ของเครื่องใหม่ทำให้เกิดภาพหลอนของประโยคในภาษาเพื่อช่วยในการแปล
  • ระบบ AI ที่เรียกว่า VALHALLA ออกแบบมาเพื่อเลียนแบบวิธีที่มนุษย์รับรู้ภาษา
  • ระบบใหม่นี้เป็นส่วนหนึ่งของการเคลื่อนไหวที่เพิ่มขึ้นในการใช้ AI เพื่อทำความเข้าใจภาษา
Image
Image

วิธีการแสดงภาพของมนุษย์ในขณะที่แปลคำสามารถช่วยให้ปัญญาประดิษฐ์ (AI) เข้าใจคุณได้ดีขึ้น

โมเดลแมชชีนเลิร์นนิงใหม่ทำให้เห็นภาพว่าประโยคในภาษานั้นเป็นอย่างไร จากรายงานการวิจัยล่าสุด เทคนิคนี้ใช้การสร้างภาพและเบาะแสอื่นๆ เพื่อช่วยในการแปล เป็นส่วนหนึ่งของการเคลื่อนไหวที่เพิ่มขึ้นในการใช้ AI เพื่อทำความเข้าใจภาษา

"วิธีที่ผู้คนพูดและเขียนมีเอกลักษณ์เฉพาะตัวเพราะเราทุกคนมีโทนเสียงและรูปแบบที่แตกต่างกันเล็กน้อย" Beth Cudney ศาสตราจารย์ด้านการวิเคราะห์ข้อมูลที่มหาวิทยาลัย Maryville ซึ่งไม่ได้เกี่ยวข้องกับการวิจัยกล่าวกับ Lifewire ในการสัมภาษณ์ทางอีเมล. "การเข้าใจบริบทเป็นเรื่องยากเพราะมันเหมือนกับการจัดการกับข้อมูลที่ไม่มีโครงสร้าง นี่คือจุดที่การประมวลผลภาษาธรรมชาติ (NLP) มีประโยชน์ NLP เป็นสาขาหนึ่งของ AI ที่กล่าวถึงความแตกต่างในวิธีที่เราสื่อสารโดยใช้ความเข้าใจในการอ่านของเครื่อง ความแตกต่างที่สำคัญใน NLP ในฐานะสาขาหนึ่งของ AI ไม่ได้เน้นแค่ความหมายตามตัวอักษรของคำที่เราพูดหรือเขียน แต่ดูที่ความหมาย"

ไปถามอลิซ

ระบบ AI ใหม่ที่เรียกว่า VALHALLA สร้างขึ้นโดยนักวิจัยจาก MIT, IBM และ University of California ที่ซานดิเอโก ออกแบบมาเพื่อเลียนแบบวิธีที่มนุษย์รับรู้ภาษา นักวิทยาศาสตร์กล่าวว่าการใช้ข้อมูลทางประสาทสัมผัส เช่น มัลติมีเดีย จับคู่กับคำใหม่ๆ ที่ไม่คุ้นเคย เช่น บัตรคำศัพท์ที่มีรูปภาพ จะช่วยปรับปรุงการได้มาซึ่งภาษาและการเก็บรักษา

ระบบเหล่านี้กำลังเพิ่มพลังของแชทบอทที่ขณะนี้ได้รับการฝึกฝนและสามารถสนทนาเฉพาะได้…

ทีมงานอ้างว่าวิธีการของพวกเขาปรับปรุงความแม่นยำของการแปลด้วยเครื่องมากกว่าการแปลแบบข้อความเท่านั้น นักวิทยาศาสตร์ใช้สถาปัตยกรรมตัวเข้ารหัสและถอดรหัสที่มีหม้อแปลงสองตัว ซึ่งเป็นแบบจำลองโครงข่ายประสาทเทียมชนิดหนึ่งที่เหมาะกับข้อมูลที่ขึ้นกับลำดับ เช่น ภาษา ที่สามารถให้ความสนใจกับคำหลักและความหมายของประโยค หม้อแปลงตัวหนึ่งสร้างภาพหลอน และอีกตัวทำการแปลหลายรูปแบบโดยใช้เอาต์พุตจากหม้อแปลงตัวแรก

"ในสถานการณ์จริง คุณอาจไม่มีภาพที่เกี่ยวกับประโยคต้นทาง" Rameswar Panda หนึ่งในสมาชิกทีมวิจัยกล่าวในการแถลงข่าว "ดังนั้น แรงจูงใจของเราคือโดยพื้นฐาน: แทนที่จะใช้ภาพภายนอกในระหว่างการอนุมานเป็นอินพุต เราสามารถใช้ภาพหลอน-ความสามารถในการจินตนาการฉากภาพ-เพื่อปรับปรุงระบบการแปลด้วยคอมพิวเตอร์ได้หรือไม่"

ความเข้าใจ AI

การวิจัยที่สำคัญมุ่งเน้นไปที่การพัฒนา NLP Cudney ชี้ให้เห็น ตัวอย่างเช่น Elon Musk ได้ร่วมก่อตั้ง Open AI ซึ่งทำงานบน GPT-3 ซึ่งเป็นโมเดลที่สามารถพูดคุยกับมนุษย์ได้และมีความเข้าใจมากพอที่จะสร้างโค้ดซอฟต์แวร์ใน Python และ Java

Google และ Meta กำลังทำงานเพื่อพัฒนา AI สนทนาด้วยระบบ LAMDA "ระบบเหล่านี้กำลังเพิ่มพลังของแชทบอทซึ่งขณะนี้ได้รับการฝึกฝนและสามารถสนทนาเฉพาะได้ ซึ่งน่าจะเปลี่ยนโฉมหน้าของฝ่ายสนับสนุนลูกค้าและฝ่ายช่วยเหลือ" คัดนีย์กล่าว

Aaron Sloman ผู้ร่วมก่อตั้ง CLIPr บริษัทเทคโนโลยี AI กล่าวในอีเมลว่าโมเดลภาษาขนาดใหญ่ เช่น GPT-3 สามารถเรียนรู้จากตัวอย่างการฝึกอบรมเพียงไม่กี่อย่าง เพื่อปรับปรุงบทสรุปของข้อความตามความคิดเห็นของมนุษย์ ตัวอย่างเช่น เขากล่าวว่า คุณสามารถให้แบบจำลองภาษาขนาดใหญ่แก้ปัญหาทางคณิตศาสตร์และขอให้ AI คิดทีละขั้นตอน

"เราสามารถคาดหวังข้อมูลเชิงลึกและเหตุผลมากขึ้นที่จะดึงออกมาจากแบบจำลองภาษาขนาดใหญ่ในขณะที่เราเรียนรู้เพิ่มเติมเกี่ยวกับความสามารถและข้อจำกัดของพวกเขา " Sloman กล่าวเสริม "ฉันยังคาดหวังให้โมเดลภาษาเหล่านี้สร้างกระบวนการที่เหมือนมนุษย์มากขึ้น ในขณะที่ผู้สร้างโมเดลพัฒนาวิธีที่ดีกว่าในการปรับแต่งโมเดลสำหรับงานเฉพาะที่สนใจ"

Diyi Yang ศาสตราจารย์ด้านคอมพิวเตอร์แห่งจอร์เจีย Tech ทำนายในการสัมภาษณ์ทางอีเมลว่าเราจะเห็นการใช้ระบบประมวลผลภาษาธรรมชาติ (NLP) ในชีวิตประจำวันของเรามากขึ้น ตั้งแต่ผู้ช่วยส่วนตัวที่ใช้ NLP เพื่อช่วยเรื่องอีเมลและโทรศัพท์ สู่ระบบการสนทนาที่มีความรู้สำหรับการหาข้อมูลในการเดินทางหรือการดูแลสุขภาพ"เช่นเดียวกับระบบ AI ที่ยุติธรรมที่สามารถทำงานและช่วยเหลือมนุษย์ในลักษณะที่รับผิดชอบและปราศจากอคติ" Yang กล่าวเสริม

โมเดล AI ขนาดใหญ่ที่ใช้พารามิเตอร์หลายล้านล้านตัว เช่น GPT-3 และ DeepText จะยังคงทำงานต่อไปในโมเดลเดียวสำหรับแอปพลิเคชันภาษาทั้งหมด Stephen Hage วิศวกรการเรียนรู้ของเครื่องที่ Dialexa กล่าวในการสัมภาษณ์ทางอีเมล เขากล่าวว่าจะมีโมเดลรูปแบบใหม่ที่สร้างขึ้นสำหรับการใช้งานเฉพาะ เช่น การช็อปปิ้งออนไลน์ที่สั่งด้วยเสียง

"ตัวอย่างอาจเป็นนักช้อปที่พูดว่า 'แสดงอายแชโดว์สีมิดไนท์บลูที่มีรัศมีมากขึ้น' เพื่อแสดงเฉดสีนั้นบนดวงตาของบุคคลด้วยการควบคุมว่าจะทาอย่างไร " ฮาเกะกล่าวเสริม