ความสามารถของ Alexa ในการเลียนแบบญาติที่ตายแล้วอาจเป็นสิ่งที่น่ากลัวที่สุดเท่าที่เคยมีมา

สารบัญ:

ความสามารถของ Alexa ในการเลียนแบบญาติที่ตายแล้วอาจเป็นสิ่งที่น่ากลัวที่สุดเท่าที่เคยมีมา
ความสามารถของ Alexa ในการเลียนแบบญาติที่ตายแล้วอาจเป็นสิ่งที่น่ากลัวที่สุดเท่าที่เคยมีมา
Anonim

ซื้อกลับบ้านที่สำคัญ

  • ผู้ช่วยเสียง Alexa ของ Amazon สามารถคัดลอกเสียงโดยใช้เวลาเพียง 1 นาทีของเสียง
  • คุณสามารถขอให้ Alexa อ่านเรื่องราวด้วยเสียงของพ่อแม่ที่เสียชีวิตได้
  • มันเป็นความคิดเดียวกับของปลอม ใช้เพื่อความดีเท่านั้น
Image
Image

กลไกล่าสุดของ Amazon Alexa คือการเรียนรู้ที่จะเลียนแบบเสียงของคนที่คุณรักที่ตายไปแล้ว เพื่อให้พวกเขาสามารถพูดกับคุณได้จากนอกหลุมศพ

Alexa ต้องการเสียงพูดเพียงนาทีเดียวเพื่อเลียนแบบเสียงที่น่าเชื่อAmazon เรียกมันว่าเป็นคุณสมบัติที่ช่วยปลอบประโลมที่สามารถทำให้คุณติดต่อกับคนที่คุณรักได้ แต่ก็อาจเป็นประสบการณ์ที่น่าขนลุกได้เช่นกัน และมันแสดงให้เห็นว่ามันง่ายแค่ไหนที่จะสร้างเสียงปลอมที่ดีพอที่จะหลอกเรา แม้ว่าเสียงนั้นจะเป็นเสียงที่เราคุ้นเคยเป็นอย่างดี

"Amazon ได้เข้าสู่ดินแดนที่ค่อนข้างแปลกใหม่และแปลกประหลาดอย่างแน่นอน ด้วยการประกาศว่า Alexa จะสามารถเรียนรู้และใช้เสียงของญาติที่เสียชีวิตได้ในไม่ช้า" Bill Mann ผู้เชี่ยวชาญด้านความเป็นส่วนตัวของ Restore Privacy กล่าว Lifewire ทางอีเมล "สำหรับบางคน มันไม่ได้น่าขนลุกเลย อันที่จริง มันอาจจะค่อนข้างน่าสัมผัส"

ผีในเครื่อง

ในฐานะส่วนหนึ่งของการประชุมประจำปี Re:MARS Amazon ได้แสดงคุณลักษณะนี้ในวิดีโอสั้น ในนั้น เด็กคนหนึ่งถาม Alexa ว่าคุณยายสามารถอ่าน "พ่อมดแห่งออซ" ให้เขาต่อไปได้หรือไม่ ซึ่งเป็นงานสาธารณสมบัติที่เป็นมิตรกับประเด็นสำคัญที่เด็กทุกคนชื่นชอบ และเป็นช่วงเวลาที่น่าประทับใจมาก เป็นการยากที่จะไม่รู้สึกอารมณ์ของมนุษย์เมื่อคุณยายเริ่มอ่าน

"มนุษย์ดิ้นรนกับการตายโดยเฉพาะในวัฒนธรรมตะวันตก เราพยายามหาวิธีที่จะระลึกถึงคนตายมาหลายศตวรรษแล้ว ตั้งแต่หน้ากากมรณะ การมัดผม รูปภาพเก่าๆ ไปจนถึงการดูหนังเก่าๆ " แอนดรูว์ เซเลปักษ์ ศาสตราจารย์ด้านโซเชียลมีเดียแห่งมหาวิทยาลัยฟลอริดาบอกกับ Lifewire ทางอีเมล "Deepfakes ใช้เทคโนโลยีล่าสุดในการสร้างหน้ากากมรณะแบบใหม่ให้กับคนที่คุณรักที่เสียชีวิตไปแล้ว แต่ขึ้นอยู่กับมุมมองของคนๆ หนึ่ง มันน่าขนลุกหรือเป็นวิธีรำลึกถึงคนที่คุณรักหลังจากที่พวกเขาเสียชีวิตไปแล้ว"

แต่โมริที่ระลึกสามารถทั้งปลอบโยนและน่าขนลุกได้ เพื่อนของสมาชิกในครอบครัวเสียชีวิต แต่คุณยังคงได้ยินพวกเขาพูดอยู่ ไม่ได้ช่วยให้ Alexa มีประวัติพฤติกรรมที่แปลกและน่ากลัวในบางครั้ง ในปี 2018 ในขณะที่คอลัมนิสต์ความคิดเห็นของ NYT Farhad Manjoo กำลังเข้านอน Amazon Echo ของเขา "เริ่มคร่ำครวญราวกับเด็กกรีดร้องในความฝันของหนังสยองขวัญ"

หลังจากนั้นไม่นาน Amazon ก็ยอมรับว่าบางครั้ง Alexa ก็หัวเราะออกมาดังๆ ซึ่งพร้อมกับวัยรุ่นและห้องใต้ดินก็เป็นหนังสยองขวัญ 101

ใครๆ ก็สงสัยว่าคุณจะรู้สึกอย่างไรหาก Alexa เล่นกลแบบเดียวกันนี้ด้วยเสียงของคุณยาย

ปลอมมาก

ความชัดเจนที่ Alexa เรียนรู้ที่จะเลียนแบบเสียงทำให้เราใช้การโคลนเสียงที่ชั่วร้ายมากขึ้น: ของปลอมที่ล้ำลึก

Image
Image

"เสียง Deepfake ไม่ใช่เรื่องใหม่ แม้ว่าจะไม่ค่อยเข้าใจและรู้จักกันน้อยก็ตาม เทคโนโลยีนี้มีมาหลายปีแล้วเพื่อสร้างเสียงของแต่ละคนด้วยปัญญาประดิษฐ์และการเรียนรู้เชิงลึกโดยใช้เสียงจริงที่ค่อนข้างน้อยจากบุคคลนั้น " เซเลปักษ์กล่าว “เทคโนโลยีดังกล่าวอาจเป็นอันตรายและทำลายล้างได้เช่นกัน บุคคลที่ถูกรบกวนสามารถสร้างเสียงของแฟนเก่าหรือแฟนสาวที่เสียชีวิตแล้ว และใช้เสียงใหม่เพื่อพูดสิ่งที่เกลียดชังและทำร้ายร่างกาย”

นั่นเป็นแค่บริบทของ Alexa เสียงปลอมที่ล้ำลึกอาจไปไกลกว่านั้นได้ ตัวอย่างเช่น การโน้มน้าวผู้คนว่านักการเมืองที่มีชื่อเสียงเชื่อในสิ่งที่พวกเขาไม่เชื่อแต่ในทางกลับกัน ยิ่งเราชินกับการปลอมแปลงลึก ๆ เหล่านี้ - อาจอยู่ในรูปแบบของเสียงของ Alexa เหล่านี้ - เราจะยิ่งสงสัยของปลอมที่ชั่วร้ายมากขึ้น อีกครั้งที่การโกหกบน Facebook นั้นง่ายแค่ไหน บางทีอาจจะไม่

Amazon ไม่ได้บอกว่าฟีเจอร์นี้จะมาถึง Alexa หรือเป็นเพียงตัวอย่างเทคโนโลยี ฉันหวังว่ามันจะทำ เทคโนโลยีจะดีที่สุดเมื่อใช้ในลักษณะที่เห็นอกเห็นใจเช่นนี้ และแม้ว่าปฏิกิริยาง่าย ๆ คือการเรียกมันว่าน่าขนลุก อย่างที่ Selepak กล่าว จริงๆ แล้วไม่แตกต่างจากการดูวิดีโอเก่าหรือการฟังข้อความเสียงที่บันทึกไว้มากนัก เหมือนตัวละครในรายการทีวีที่ขี้เกียจ

และหากเทคโนโลยีสำหรับการปลอมแปลงที่ล้ำลึกมีพร้อม ทำไมไม่ลองใช้มันเพื่อปลอบใจตัวเองล่ะ

แนะนำ: