เตือนภัย! มิจฉาชีพยุค AI... อย่าหลงเชื่อ "Deepfake"

ลงวันที่ 12 ก.พ. 2569
เตือนภัย! มิจฉาชีพยุค AI... อย่าหลงเชื่อ "Deepfake"

 

⚠️ เตือนภัย! มิจฉาชีพยุค AI... อย่าหลงเชื่อ "Deepfake" วิดีโอปลอม หน้าเหมือน เสียงเป๊ะ!

เดี๋ยวนี้แค่เห็นหน้าในจอ หรือได้ยินเสียงที่คุ้นเคย ก็อาจไม่ใช่ "ตัวจริง" เสมอไปนะคะ! มิจฉาชีพเริ่มนำเทคโนโลยี Deepfake (การตัดต่อใบหน้าและเสียงด้วย AI) มาใช้หลอกให้เราโอนเงินหรือกดลิงก์อันตรายได้แนบเนียนมากค่ะ

💡 3 จุดสังเกต... อันไหน "ตัวจริง" อันไหน "AI"

🚫 คาถาป้องกันตัว "ไม่เชื่อ ไม่รีบ ไม่โอน"

  1. อย่าเพิ่งเชื่อสายตา: หากมีการขอให้โอนเงินแบบเร่งด่วน ให้เอะใจไว้ก่อน

  2. อย่ากดลิงก์: ลิงก์ที่ส่งมาพร้อมวิดีโอคอล อาจเป็นแอปดูดเงินหรือมัลแวร์

  3. ติดต่อกลับทางอื่น: ให้วางสายแล้วลองโทรกลับหาเจ้าตัวผ่านเบอร์โทรศัพท์ปกติที่เคยบันทึกไว้

ด้วยความปรารถนาดีและห่วงใยค่ะ 💖 ช่วยกันแชร์โพสต์นี้ออกไป เพื่อปกป้องคนที่คุณรักไม่ให้ตกเป็นเหยื่อนะคะ!

#เตือนภัยออนไลน์ #Deepfake #มิจฉาชีพ #ฉ้อโกงออนไลน์ #รู้ทันAI #เช็กก่อนโอน




ภาพที่เกี่ยวข้อง เตือนภัย! มิจฉาชีพยุค AI... อย่าหลงเชื่อ "Deepfake"

ป.ป.ช ป.ป.ท