การแกล้งทำวิดีโอเป็นเรื่องง่ายๆ แสดงความคิดถึง

สารบัญ:

การแกล้งทำวิดีโอเป็นเรื่องง่ายๆ แสดงความคิดถึง
การแกล้งทำวิดีโอเป็นเรื่องง่ายๆ แสดงความคิดถึง
Anonim

ซื้อกลับบ้านที่สำคัญ

  • Deep Nostalgia เป็นโปรแกรมใหม่ที่ให้คุณทำให้รูปภาพเก่าเคลื่อนไหวได้
  • เทคโนโลยีนี้แสดงให้เห็นว่าการสร้างวิดีโอของคนที่ทำสิ่งที่พวกเขาไม่ได้ทำในชีวิตจริงนั้นทำได้ง่ายเพียงใด
  • เทคโนโลยีลวงตานั้นซับซ้อนมากจนยากที่จะบอกได้ว่าวิดีโอเป็นของจริงหรือสร้างด้วยคอมพิวเตอร์ ผู้เชี่ยวชาญคนหนึ่งกล่าว
Image
Image

ระวังซอฟต์แวร์ใหม่ที่สามารถสร้างสิ่งที่เรียกว่า "ของปลอม" ซึ่งวิดีโอของคนจริงสามารถจำลองได้ ผู้เชี่ยวชาญเตือน

Deep Nostalgia ที่เผยแพร่โดยบริษัท MyHeritage กำลังมาแรงบนโซเชียลมีเดีย โดยผู้ใช้จะฟื้นคืนชีพทุกคนตั้งแต่นักประพันธ์เพลงชื่อดังไปจนถึงญาติที่ล่วงลับไปแล้ว ซอฟต์แวร์กำลังแสดงปฏิกิริยาที่หลากหลาย โดยที่บางคนพอใจกับการสร้างสรรค์นี้ และคนอื่นๆ มองว่ามันน่าขนลุก เทคโนโลยีนี้แสดงให้เห็นว่าการสร้างวิดีโอของคนทำสิ่งที่พวกเขาไม่เคยทำในชีวิตจริงทำได้ง่ายเพียงใด

"เทคโนโลยี Deepfake นั้นซับซ้อนและอันตรายมากขึ้น" Aaron Lawson ผู้ช่วยผู้อำนวยการห้องปฏิบัติการ Speech Technology and Research (STAR) ของ SRI International กล่าวในการสัมภาษณ์ทางอีเมล "ส่วนหนึ่งเป็นเพราะธรรมชาติของปัญญาประดิษฐ์ ซึ่งเทคโนโลยี 'ดั้งเดิม' ต้องใช้เวลาและพลังงานของมนุษย์ในการปรับปรุง AI สามารถเรียนรู้จากตัวมันเองได้

"แต่ความสามารถของ AI ในการพัฒนาตัวเองนั้นเป็นดาบสองคม" ลอว์สันกล่าวต่อ "ถ้า AI ถูกสร้างขึ้นมาเพื่อทำสิ่งที่มีเมตตา ยิ่งใหญ่ แต่เมื่อ AI ถูกออกแบบมาสำหรับบางสิ่งที่เป็นอันตราย เช่น ของปลอม อันตรายก็ไม่เคยเกิดขึ้นมาก่อน"

ซอฟต์แวร์ทำให้ภาพมีชีวิต

เว็บไซต์ลำดับวงศ์ตระกูล MyHeritage เปิดตัวเอ็นจิ้นแอนิเมชั่นเมื่อเดือนที่แล้ว เทคโนโลยีนี้รู้จักกันในชื่อ Deep Nostalgia ให้ผู้ใช้สร้างภาพเคลื่อนไหวผ่านเว็บไซต์ MyHeritage บริษัทที่ชื่อว่า D-ID ได้ออกแบบอัลกอริทึมสำหรับ MyHeritage ซึ่งสร้างการเคลื่อนไหวของใบหน้ามนุษย์แบบดิจิทัล ซอฟต์แวร์ใช้การเคลื่อนไหวกับภาพถ่ายและปรับเปลี่ยนการแสดงออกทางสีหน้าเพื่อให้เคลื่อนไหวตามที่ใบหน้ามนุษย์มักทำ ตามเว็บไซต์ MyHeritage

Deep Nostalgia แสดงให้เห็นว่าเทคโนโลยี Deep-Fake กำลังเข้าถึงได้มากขึ้น Lior Shamir ศาสตราจารย์ด้านวิทยาการคอมพิวเตอร์ที่ Kansas State University กล่าวในการสัมภาษณ์ทางอีเมล มันดำเนินไปอย่างรวดเร็วและขจัดความแตกต่างเล็กน้อยระหว่างวิดีโอและเสียงของปลอมกับของจริง

"นอกจากนี้ยังมีความคืบหน้าอย่างมากในการปลอมแปลงข้อมูลแบบเรียลไทม์ ซึ่งหมายความว่าวิดีโอปลอมเชิงลึกจะถูกสร้างขึ้นในขณะที่มีการสื่อสารผ่านวิดีโอ" Shamir กล่าว"ตัวอย่างเช่น เราสามารถมีการประชุม Zoom กับบุคคลใดบุคคลหนึ่งได้ ในขณะที่มองเห็นและได้ยินเสียงของบุคคลที่ต่างไปจากเดิมอย่างสิ้นเชิง"

นอกจากนี้ยังมีการปลอมแปลงเชิงลึกตามภาษาจำนวนมากขึ้นเรื่อยๆ Jason Corso ผู้อำนวยการสถาบัน Stevens Institute for Artificial Intelligence ที่ Stevens Institute of Technology กล่าวในการสัมภาษณ์ทางอีเมล "การสร้างข้อความปลอมเชิงลึกทั้งย่อหน้าตามวาระที่เฉพาะเจาะจงนั้นค่อนข้างยาก แต่ความก้าวหน้าที่ทันสมัยในการประมวลผลภาษาที่เป็นธรรมชาติอย่างลึกซึ้งทำให้เป็นไปได้" เขากล่าวเสริม

วิธีตรวจจับของปลอม

ในขณะที่เทคโนโลยีการตรวจจับลึกปลอมยังอยู่ในช่วงตั้งไข่ มีสองสามวิธีที่คุณสามารถตรวจพบได้ Corso กล่าวโดยเริ่มจากปาก

"ความแปรปรวนของรูปลักษณ์ภายในปากเวลามีคนพูดนั้นสูงมาก ทำให้เคลื่อนไหวอย่างน่าเชื่อถือได้ยาก" Corso อธิบาย “มันทำได้ แต่มันยากกว่าส่วนที่เหลือของหัวสังเกตว่าวิดีโอ Deep Nostalgia ไม่ได้แสดงความสามารถในการพูดว่า 'ฉันรักคุณ' หรือวลีอื่น ๆ ในระหว่างการสร้างภาพปลอม การทำเช่นนี้จะต้องมีการเปิดและปิดปากซึ่งเป็นเรื่องยากมากสำหรับคนรุ่นหลังจอมปลอม"

Ghosting เป็นของแถมอีกตัว Corso เพิ่ม หากคุณเห็นความพร่ามัวรอบ ๆ ขอบศีรษะ นั่นเป็นผลมาจาก "การเคลื่อนไหวอย่างรวดเร็วหรือพิกเซลที่จำกัดที่มีอยู่ในภาพต้นฉบับ หูอาจหายไปชั่วขณะหนึ่ง หรือผมอาจพร่ามัวในที่ที่คุณคาดไม่ถึง" เขา กล่าวว่า

คุณยังสามารถมองหาความแปรผันของสีได้เมื่อพยายามมองหาวิดีโอปลอมที่ลึก เช่น เส้นที่คมชัดพาดผ่านใบหน้า โดยด้านหนึ่งสีเข้มกว่าและอีกด้านหนึ่งเป็นสีอ่อน

"อัลกอริธึมของคอมพิวเตอร์มักจะตรวจจับรูปแบบการบิดเบือนเหล่านี้ได้" ชาเมียร์กล่าว "แต่อัลกอริธึมปลอมที่ล้ำลึกกำลังก้าวหน้าอย่างรวดเร็ว หลีกเลี่ยงไม่ได้ที่กฎหมายที่เข้มงวดจะต้องปกป้องจากการปลอมแปลงที่ลึกล้ำและความเสียหายที่พวกมันสามารถก่อได้"