วันเสาร์ 31 มกราคม 2026

10 วิธีจับผิดวิดีโอ AI ปลอมบนโซเชียล ก่อนตกเป็นเหยื่อข่าวลวงและมิจฉาชีพ

-

กระแสวิดีโอที่ถูกสร้างโดย ปัญญาประดิษฐ์ (AI) เพิ่มสูงขึ้นอย่างรวดเร็ว จนทำให้ผู้ใช้โซเชียลจำนวนมากแยกไม่ออกว่าอะไรจริงหรือปลอม รายงานจากบริษัทความปลอดภัยไซเบอร์ DeepStrike ระบุว่า จำนวน deepfake videos เพิ่มจาก ครึ่งล้านคลิปในปี 2023 เป็นมากกว่า 8 ล้านคลิปในปีนี้ ซึ่งทำให้กลายเป็นภัยใหม่ที่ทั้งหลอกลวงและแพร่กระจายข่าวปลอมได้ง่ายกว่าเดิม

มิจฉาชีพเริ่มใช้ AI เพื่อสร้างใบหน้า เสียง หรือสถานการณ์ปลอมอย่างแนบเนียน หลอกให้ผู้คนโอนเงิน แชร์ข้อมูลผิด หรือกระจายข่าวลวงโดยไม่รู้ตัว ล่าสุดบริษัทซอฟต์แวร์ Outplayed เปิดเผยวิธีสังเกตว่าคลิปไหนเป็นของจริงหรือเป็นผลงานจาก AI

ด้านล่างคือ 10 วิธีจับผิดวิดีโอ AI ปลอม ที่ควรรู้ก่อนแชร์หรือตัดสินใจเชื่ออะไรบนโซเชียล

1. การกระพริบตาและการเคลื่อนไหวของดวงตา

คนจริงจะกระพริบตาเป็นธรรมชาติ แต่ในวิดีโอ AI มัก กระพริบช้ากว่าปกติ หรือเคลื่อนไหวดวงตาแบบแข็งทื่อและเป็นจังหวะแปลก ๆ คล้ายหุ่นยนต์

2. มือและนิ้วที่ผิดรูป

AI ยังคงสร้างมือได้ไม่สมบูรณ์นัก จึงมักพบ นิ้วซ้อน นิ้วเกิน นิ้วบิดงอผิดธรรมชาติ หรือมีตำแหน่งที่ไม่สอดคล้องกับการจับของจริง

3. แสงและเงาที่ผิดธรรมชาติ

หากหน้าของตัวละคร สว่างเกินจริง หรือเงาตกในทิศทางที่ไม่สอดคล้องกับฉาก นั่นเป็นสัญญาณชัดของวิดีโอที่สร้างจาก AI

4. น้ำและภาพสะท้อนที่ “เนียนเกินไป”

AI มักสร้างผิวน้ำหรือเงาสะท้อนที่นิ่งจนผิดธรรมชาติ หากน้ำดู “เนี๊ยบเกินจริง” หรือสะท้อนแสงแบบไม่สมจริง มีโอกาสสูงว่าเป็นวิดีโอปลอม

5. ปัญหา Lip-sync (ปากไม่ตรงเสียง)

เสียงกับการขยับปากไม่ลงจังหวะกัน เช่น เวลาออกเสียง , , , หรือคำที่ต้องเม้มปากแน่น จะเห็นชัดว่า การขยับปากแข็ง ไม่เป็นธรรมชาติ หรือไม่ตรงกับเสียงที่ได้ยิน นับเป็นหนึ่งในจุดอ่อนของวิดีโอ AI ที่พบได้บ่อยที่สุดในภาษาไทย

6. ผิวหน้าเรียบเหมือนพลาสติก

AI มักทำให้ผิวหน้าเนียนเกินจริงจน ไม่เห็นรูขุมขนหรือผิวสัมผัส คล้ายผิวหุ่นหรือฟิลเตอร์กล้องที่แรงเกินไป

7. พื้นหลังผิดรูปหรือกะพริบ

ฉากหลังมักเกิดการ บิดเบี้ยว (warping) ขอบภาพสั่น หรือมีวัตถุแปลกตาที่ไม่ต่อเนื่อง นอกจากนี้บางครั้งยังพบ วอเตอร์มาร์ก AI ซ่อนอยู่

8. การเคลื่อนไหวของผ้าที่ไม่สมจริง

สังเกตเสื้อผ้า หากผ้า พลิ้วผิดธรรมชาติ แข็ง ไม่ตามแรงลม หรือไม่สอดคล้องกับท่าทางคน มีความเป็นไปได้ว่าเป็นวิดีโอ AI

9. การตัดต่อฉากที่กระตุกหรือมี “จังหวะหลุด”

คลิปที่ใช้ AI มักมีการ เปลี่ยนซีนแบบกระโดดกะทันหัน หรือมี “จุดวูบ” เล็ก ๆ ซึ่งเป็นสัญญาณของการเรนเดอร์เทียม

10. บริบทแปลก–สถานการณ์ไม่สมเหตุสมผล

ถ้าบุคคลในคลิปปรากฏตัวในสถานที่แปลก ๆ ทำพฤติกรรมผิดจากลักษณะจริง หรือพูดในน้ำเสียงที่ไม่ปกติ นั่นอาจเป็น deepfake ที่สร้างขึ้นเพื่อหลอกลวง

เคล็ดลับสุดท้าย: เชื่อ “สัญชาตญาณ” ของคุณ

ผู้เชี่ยวชาญแนะนำว่า ถ้าวิดีโอรู้สึกแปลก ดูไม่สมจริง หรือชวนสงสัย ให้ถือว่านั่นคือสัญญาณอันตราย ก่อนแชร์หรือเชื่อข้อมูลใด ๆ ควรตรวจสอบจากหลายแหล่งเสมอ

ในยุคที่ AI สร้างภาพปลอมได้เนียนกว่าที่เคย การรู้จักสังเกตอย่างมีสติจะช่วยปกป้องคุณจากข่าวลวงและมิจฉาชีพบนโลกดิจิทัล

เรื่องล่าสุด