ซื้อกลับบ้านที่สำคัญ
- คุณสมบัติการช่วยการเข้าถึงใหม่รวมถึงคำบรรยายสดที่สร้างขึ้นแบบเรียลไทม์สำหรับวิดีโอหรือการสนทนาใดๆ
- หากฟีเจอร์นี้ไม่ได้สร้างมาเพื่อแว่นตา AR ของ Apple เราจะกินหมวกอิโมจิเสมือนจริงของเรา
- Apple มีประวัติการทดลองใช้คุณสมบัติผลิตภัณฑ์ในอนาคตภายในอุปกรณ์ปัจจุบัน
คำบรรยายสดใหม่ของ Apple เพิ่มคำบรรยายแบบเรียลไทม์ให้กับอะไรก็ได้ รวมถึงคนที่ยืนอยู่ตรงหน้าคุณ
เหมือนกับแว่น AR ของ Google ที่ประกาศในสัปดาห์นี้คำบรรยายสดของ Apple สามารถรับเสียงที่เข้ามาและถอดเสียงได้ทันที ข้อแตกต่างคือเวอร์ชันของ Apple จะวางจำหน่าย "ในปลายปีนี้" ซึ่งอาจหมายความว่าจะเปิดตัวใน iOS 16 ของฤดูใบไม้ร่วงนี้ แต่ข่าวจริงที่นี่คือการแทงที่ชัดเจนที่สุดของ Apple ในการทดลองใช้ฟีเจอร์ Apple Glasses ในอนาคตด้วยสายตาธรรมดา
"ในฐานะคนที่มีพ่อแม่สองคนที่มีปัญหาในการได้ยินทั้งคู่ สิ่งนี้ช่วยได้มาก" Dan Moren นักข่าวที่เน้น Apple เป็นศูนย์กลางในบล็อก Six Colors ส่วนตัวของเขา "ฉันอยากรู้ว่าฟีเจอร์นี้ใช้งานได้จริงดีแค่ไหน และจัดการการโทรแบบ FaceTime ครั้งใหญ่กับผู้เข้าร่วมจำนวนมากได้อย่างไร Apple บอกว่าจะระบุแอตทริบิวต์การโต้ตอบของลำโพงเฉพาะ"
มือไว
คำบรรยายสดที่เราจะพูดถึงกันในอีกสักครู่นั้นอยู่ไกลจากคุณสมบัติแว่นตา AR ตัวแรกที่ Apple ได้ทดลองใช้ ที่ชัดเจนที่สุดคือการรวมกล้อง LIDAR ใน iPhone และ iPads เครื่องสแกนเหล่านี้ช่วยสร้างแผนที่ 3 มิติที่แม่นยำของโลกภายนอก และอนุญาตให้ iPhone วางโมเดล 3 มิติไว้บนโลกแห่งความจริงที่แสดงผ่านกล้อง
ฉันไม่แน่ใจว่าการแปลสดของ Apple ไว้ใจได้ดีกว่าแว่น AR ใหม่ของ Google แต่ฉันคิดว่าเราวางใจได้ว่าการแข่งขันจะช่วยให้ได้ผลลัพธ์ที่ดีที่สุด
จนถึงตอนนี้ เทคโนโลยีนี้เคยใช้เพื่อให้คุณดูตัวอย่างคอมพิวเตอร์ Apple ใหม่บนโต๊ะทำงานของคุณเอง เล่นเกม AR Lego ทดสอบเฟอร์นิเจอร์ IKEA ในห้องนั่งเล่นของคุณ และอื่นๆ ฮาร์ดแวร์ LIDAR นั้นซ้ำซ้อนอย่างไร้เหตุผลใน iPhone ซึ่งจะต้องมีอยู่ที่นั่นเท่านั้น เพื่อให้ Apple สามารถปรับปรุงฮาร์ดแวร์และซอฟต์แวร์สำหรับแอปพลิเคชัน AR จริง: Apple Glasses
ไม่ใช่แค่ AR ที่มองเห็นได้เท่านั้น AirPods ได้เพิ่มคุณสมบัติ AR ที่ยอดเยี่ยมมาหลายปีแล้ว Spatial Audio รุ่นล่าสุด หลอกสมองของเราให้คิดว่าเสียงมาจากสิ่งรอบตัวเรา และเป็นวิธีที่ยอดเยี่ยมในการชมภาพยนตร์หรือฟังเสียงที่ผ่อนคลาย เป็นคุณสมบัติที่ยอดเยี่ยม แต่จะดียิ่งขึ้นเมื่อทำงานร่วมกับผลิตภัณฑ์แว่นตาในอนาคตของ Apple ความสามารถในการวางเสียงในพื้นที่ 3 มิติเพื่อให้เข้ากับวัตถุ AR ได้จะขายภาพลวงตาได้จริงๆ
หรือว่า Live Text ซึ่งเป็นเทคโนโลยี iOS 15 ที่จดจำและอ่านข้อความในรูปภาพและถ่ายทอดสดผ่านกล้องของ iPhone ล่ะ เป็นอีกคุณสมบัติหนึ่งที่เหมาะสำหรับการอ่านป้าย เมนู และข้อความอื่นๆ ผ่านแว่นตา AR
คำบรรยายสด
Live Captions รับคำพูดจากการโทรแบบ FaceTime, แอปการประชุมทางวิดีโอ, การสตรีมวิดีโอ และอื่นๆ โทรศัพท์ของคุณรับเสียงและถอดเสียงได้ทันที โดยมีคำบรรยายดังที่เห็นในวิดีโอนี้
เยี่ยมไปเลย แต่ที่เด็ดกว่านั้นคือไม่มีอะไรจะทิ้ง iPhone ของคุณเลย คำบรรยายใต้ภาพดังกล่าว Apple สร้างขึ้นบนอุปกรณ์แทนที่จะถูกส่งไปยังเซิร์ฟเวอร์ สิ่งนี้ไม่เพียงแต่เป็นส่วนตัวเท่านั้น แต่ยังเร็วกว่ามากอีกด้วย
"ฉันไม่แน่ใจว่าเราสามารถเชื่อการแปลสดของ Apple ได้ดีกว่าแว่นตา AR ใหม่ของ Google แต่ฉันคิดว่าเราสามารถวางใจได้ว่าการแข่งขันจะช่วยให้เกิดผลลัพธ์ที่ดีที่สุด" Kristen Bolig ผู้ก่อตั้ง SecurityNerd กล่าวกับ Lifewire ทางอีเมล.“ตอนนี้การแข่งขันเป็นสาธารณะและปัญหาของเทคโนโลยีประเภทนี้ (ความเป็นส่วนตัว ความถูกต้อง ฯลฯ) เป็นที่รู้จักกันดี ทั้งสองบริษัทจะไม่เพียงแต่แข่งขันกันเพื่อสร้างผลิตภัณฑ์ที่ดีที่สุดก่อน แต่ยังสร้างผลิตภัณฑ์ที่ดีที่สุด แก้ปัญหาเหล่านี้"
เรายังคาดหวังว่าจะมีการแปลอัตโนมัติในตัว เช่น ที่คุณสามารถทำได้ตอนนี้โดยใช้แอพของบุคคลที่สาม Navi เพื่อแปลการสนทนา FaceTime ของคุณโดยอัตโนมัติ หรือบางทีอาจเป็นวิธีบันทึกการถอดเสียงเหล่านี้ระหว่างการสัมภาษณ์ เข้าถึงได้ง่ายขึ้นในภายหลัง
เราสนุกกับคุณสมบัติการช่วยสำหรับการเข้าถึงที่ยอดเยี่ยมจาก Apple มาอย่างยาวนาน ทำให้เราปรับแต่งอุปกรณ์ iOS ของเราในระดับที่แทบจะไร้สาระ ตั้งแต่การปรับแต่งหน้าจอเพื่อให้มองเห็นสีและข้อความได้ง่ายขึ้น ไปจนถึงการควบคุมอินเทอร์เฟซผู้ใช้ทั้งหมดด้วยอุปกรณ์ภายนอก ให้โทรศัพท์แจ้งเตือนคุณเมื่อมีคนกดกริ่งประตู หรือรถตู้ส่งของมาถึงด้านนอก
ตอนนี้ เราทุกคนได้รับประโยชน์จากการวิจัยเทคโนโลยีความจริงเสริมที่เพิ่มขึ้นของ Apple เราอาจไม่สนใจ IKEA หรือ LEGO หรือแม้แต่ไม่ต้องการซื้ออุปกรณ์แว่นตา AR ของ Apple แต่นั่นไม่ได้หมายความว่าเราไม่สามารถเพลิดเพลินกับผลของการวิจัยนั้นได้ทุกคน