ซื้อกลับบ้านที่สำคัญ
- เครื่องช่วยฟังรุ่นใหม่ที่ประกาศในงาน Consumer Electronics Show เมื่อสัปดาห์ที่แล้วอ้างว่าปรับปรุงเสียงโดยใช้ปัญญาประดิษฐ์
- WIDEX MOMENT ใช้ AI เพื่อเรียนรู้ว่าผู้ใช้ชอบฟังสภาพแวดล้อมของตนอย่างไร และเปรียบเทียบกับการตั้งค่านับล้านที่จัดเก็บไว้ในระบบคลาวด์
- Oticon More ได้รับการฝึกฝนเกี่ยวกับเสียง 12 ล้านเสียง ดังนั้นมันจึงประมวลผลคำพูดด้วยเสียงเหมือนสมองมนุษย์มากขึ้น บริษัทกล่าว
เครื่องช่วยฟังรุ่นใหม่ใช้ปัญญาประดิษฐ์เพื่อสร้างเสียงที่สมจริงยิ่งขึ้น ผู้ผลิตกล่าวอ้าง
WIDEX MOMENT ที่เพิ่งเปิดตัวไม่นานนี้ใช้ AI เพื่อเรียนรู้ว่าผู้ใช้ชอบฟังสภาพแวดล้อมของตนอย่างไร และเปรียบเทียบกับการตั้งค่านับล้านที่จัดเก็บไว้ในระบบคลาวด์เพื่อช่วยปรับแต่งประสบการณ์การฟังในแบบของคุณ เป็นหนึ่งในอุปกรณ์ช่วยฟังที่ใช้เทคโนโลยีใหม่เพิ่มขึ้นเรื่อยๆ
"WIDEX MOMENT กับ PureSound จัดการกับความท้าทายที่ยิ่งใหญ่อย่างหนึ่งที่ยังไม่ได้แก้ไขสำหรับผู้ใช้เครื่องช่วยฟัง ไม่ว่าเสียงจะดีแค่ไหน เสียงก็ยังฟังดูปลอม เหมือนกับว่าคุณกำลังฟังการบันทึกเสียงของคุณมากกว่าที่จะฟัง ก่อนที่การได้ยินของคุณจะบกพร่อง" Kerry Coughlin รองประธาน Widex Marketing กล่าวในการสัมภาษณ์ทางอีเมล
"กล่าวอีกนัยหนึ่ง ไม่ว่าความสามารถทางเทคโนโลยีจะเป็นอย่างไร เครื่องช่วยฟังมักจะฟังดูเหมือนเครื่องช่วยฟังเสมอ"
เราไม่ได้ยินเสียงเธอ
MOMENT และเครื่องช่วยฟังไฮเทคอื่น ๆ กล่าวถึงปัญหาที่คนอเมริกันจำนวนมากเผชิญ ประมาณหนึ่งในสามคนในสหรัฐอเมริกาS. อายุระหว่าง 65-74 ปี สูญเสียการได้ยิน และเกือบครึ่งหนึ่งของผู้ที่มีอายุมากกว่า 75 ปีมีปัญหาในการได้ยิน ตามที่สถาบันแห่งชาติว่าด้วยโรคหูหนวกและความผิดปกติในการสื่อสารอื่นๆ
เครื่องช่วยฟังแบบดั้งเดิมสามารถเปลี่ยนชีวิตได้ แต่มีขีดจำกัด เสียงที่ผู้ใช้ได้ยินนั้นเปลี่ยนไปเพราะเมื่อประมวลผลในเครื่องช่วยฟัง เสียงนั้นจะไปถึงแก้วหูช้ากว่าเสียงที่ไหลผ่านหูโดยตรงเล็กน้อย เมื่อสัญญาณ "ไม่ซิงค์" ทั้งสองนี้ผสมกัน ผลลัพธ์จะเป็นเสียงเทียม
เพื่อพยายามป้องกันปัญหานี้ MOMENT จะใช้เส้นทางการประมวลผลแบบขนานเพื่อลดเวลาในการตอบสนอง บริษัทอ้างว่ากระบวนการของเครื่องช่วยฟังนั้นฟังดูเร็วกว่าอุปกรณ์อื่นๆ ถึง 10 เท่า ช่วยลดเวลาแฝงในการประมวลผลลงเหลือ 0.5 มิลลิวินาที
กล่าวอีกนัยหนึ่ง ไม่ว่าความสามารถทางเทคโนโลยีจะเป็นอย่างไร เครื่องช่วยฟังก็เหมือนเครื่องช่วยฟังเสมอ
"เครื่องช่วยฟังจำนวนมากสร้างสัญญาณที่ไม่คุ้นเคยกับสมอง บังคับให้คุณต้องเรียนรู้วิธีฟังใหม่อีกครั้ง" Coughlin กล่าว"สาเหตุส่วนใหญ่เกิดจากความล่าช้าที่เกิดขึ้นระหว่างการประมวลผลเสียง WIDEX MOMENT พร้อม PureSound ให้สัญญาณที่สมจริงยิ่งขึ้นโดยมีดีเลย์น้อยที่สุด ดังนั้น สมองของคุณจะรับรู้สัญญาณ และคุณจำเสียงได้"
AI ยังช่วยเพิ่มประสิทธิภาพของ MOMENT ด้วย Coughlin กล่าว ซอฟต์แวร์จะวิเคราะห์การตั้งค่าของผู้ใช้และเรียนรู้ว่าผู้ใช้ต้องการได้ยินสภาพแวดล้อมของตนอย่างไรโดยการวิเคราะห์การตั้งค่า AI ยังค้นหาการตั้งค่าผู้ใช้นับล้านที่จัดเก็บไว้ในคลาวด์เพื่อช่วยปรับแต่งประสบการณ์การฟังให้เป็นส่วนตัว
ผู้ผลิตก้าวสู่ AI
MOMENT ไม่ใช่เครื่องช่วยฟังเพียงเครื่องเดียวที่ใช้ AI เมื่อสัปดาห์ที่แล้วที่งาน Consumer Electronics Show Oticon ได้เปิดตัวเครื่องช่วยฟัง Oticon More พร้อมเครือข่าย Deep Neural Network (DNN) ในตัว เครือข่าย Oticon More ได้รับการฝึกฝนเกี่ยวกับเสียง 12 ล้านเสียง ดังนั้นมันจึงประมวลผลคำพูดด้วยเสียงเหมือนสมองของมนุษย์มากขึ้น บริษัทกล่าว
"DNN ใน Oticon More ได้เรียนรู้วิธีที่สมองเรียนรู้อย่างเป็นธรรมชาติเมื่อเวลาผ่านไป" Donald Schum รองประธานฝ่ายโสตวิทยาของ Oticon กล่าวในการแถลงข่าว
"ทุกเสียงที่ผ่านเครื่องช่วยฟังจะถูกนำไปเปรียบเทียบกับผลลัพธ์ที่ค้นพบในขั้นตอนการเรียนรู้ ซึ่งช่วยให้ Oticon More ให้ฉากเสียงที่เป็นธรรมชาติ เต็มอิ่ม และสมดุลแม่นยำยิ่งขึ้น ทำให้สมองง่ายขึ้น ดำเนินการอย่างเหมาะสม"
นอกจากนี้ยังมี Orka One เครื่องช่วยฟังตัวใหม่ที่ประกาศในงาน CES เมื่อสัปดาห์ที่แล้วซึ่งอ้างว่าใช้ AI เพื่อลดเสียงรบกวน บริษัท ORKA One ใช้โครงข่ายประสาทเทียม AI บนชิปในกรณีของเครื่องช่วยฟัง
เครือข่ายระบุและลดเสียงพื้นหลังที่อาจทำให้เสียสมาธิและเสริมเสียงของมนุษย์ "เครื่องช่วยฟังเทคโนโลยี AI denoise สามารถแยกแยะเสียงพื้นหลังและช่วยให้ผู้ใช้ได้ยินเสียงความถี่ต่ำได้อย่างชัดเจน" บริษัท กล่าวในเว็บไซต์ "ดังนั้น ผู้ใช้จึงมีการได้ยินที่ดีขึ้น และคุณสามารถสนทนากับครอบครัวและเพื่อนฝูงในพื้นที่ที่มีเสียงดังได้อย่างง่ายดาย"
ปัญญาประดิษฐ์กำลังเปลี่ยนแปลงเทคโนโลยีทุกประเภทอย่างรวดเร็ว รวมถึงอุปกรณ์ทางการแพทย์ด้วย หากอุปกรณ์เหล่านี้ปรับปรุงประสบการณ์ของผู้ใช้ อาจเป็นประโยชน์อย่างมากสำหรับผู้ที่สูญเสียการได้ยิน