Bùng phát cuộc gọi lừa đảo Deepfake, coi chừng “tiền mất tật mang”

Google News

Kẻ gian dùng một cuộc gọi đến người thân và các bức ảnh công khai của họ dùng ghép vào các cuộc gọi lừa đảo Deepfake để lừa nạn nhân chuyển tiền.

Cục An toàn thông tin (Bộ TT-TT) đã đưa ra cảnh báo quan trọng về thủ đoạn cuộc gọi lừa đảo Deepfake khiến không ít người dính bẫy mất tiền oan.

Cú lừa từ “khuôn mặt fake”

Theo thông tin từ Cục An toàn thông tin, vào sáng ngày 23/12/2024, chị N.T.H (45 tuổi, trú tại quận Long Biên, Hà Nội) nhận được một cuộc gọi video thông qua ứng dụng Facebook Messenger từ tài khoản của con trai chị - hiện đang ở TP. HCM, yêu cầu chuyển hơn 100 triệu đồng để thanh toán phí đăng ký du học. Tuy nhiên, nhờ được đào tạo bài bản về phòng chống lừa đảo với tư cách là cán bộ ngân hàng, chị H đã tỉnh táo và không thực hiện theo yêu cầu.
Bung phat cuoc goi lua dao Deepfake, coi chung
 Cảnh báo của Cục An toàn thông tin về hình thức lừa đảo ứng dụng công nghệ deefake. Ảnh chụp màn hình
Không may mắn như chị N.T.H, chị N.T.Q (huyện Sơn Tịnh, Quảng Ngãi) đã mất gần 30 triệu đồng khi bị đối tượng lừa đảo giả dạng khuôn mặt của người thân và yêu cầu chuyển tiền. “Mình đã nhận được cuộc gọi video và xác nhận đúng khuôn mặt, tuy nhiên cuộc gọi chỉ diễn ra vài giây nên mình chưa kịp trao đổi kỹ, nhưng vì tin tưởng nên mình đã chuyển số tiền được yêu cầu”, chị chia sẻ.

Trên nhiều diễn đàn, không ít người dùng cũng “khóc ròng” vì gặp phải cú lừa tương tự. Đây là một trong những chiêu sử dụng ảnh, video, mô hình 3D, mặt nạ in 3D, thậm chí tích hợp AI như Deepfake để giả mạo dữ liệu và danh tính người dùng.

Vạch trần thủ đoạn tinh vi 
Chị Phan. H.D, người bị mạo danh trong trường hợp của chị N.TQ chuyển tiền chỉ phát hiện ra khi có hàng xóm chạy trực tiếp đến nhà hỏi chuyện. Qua lời kể của chị, thủ đoạn lừa đảo của kẻ gian mới được làm sáng tỏ.
"Hai hôm trước, khi tôi đang ngủ, có nhận một cuộc gọi xưng là shiper nói giao hàng. Vì cũng hay đặt mua hàng nên tôi vẫn hỏi lại xem cụ thể đồng thời từ chối nhận hàng vì đang là buổi tối. Không ngờ kẻ gian dùng âm thanh đó để giả giọng mình dùng để lừa".
Anh Trần Hoàng Võ, chủ một studio cho biết: "Hiện tại, có nhiều công cụ AI chỉ cần một đoạn ghi âm sẽ cho phép tái tạo giọng nói của một người cụ thể. Trong trường hợp của chị Phan. H.D, đối tượng đã dùng cuộc gọi đó để thu thập giọng nói".
Nhờ ứng dụng công nghệ AI, kẻ gian ghép khuôn mặt và giọng nói để dàn dựng các cuộc gọi video trông giống như từ người thân, bạn bè. Nội dung những cuộc gọi này thường xoay quanh các lý do khẩn cấp như tai nạn, nợ nần, nhằm thúc giục nạn nhân nhanh chóng chuyển tiền vào tài khoản được chỉ định.
Bung phat cuoc goi lua dao Deepfake, coi chung
Deepfake có thể tạo dựng khuôn mặt người thân trong cuộc gọi video khiến nạn nhân tin tưởng. Ảnh: Tuệ Minh 
Chị N.T.Q, người bị lừa chuyển tiền mô tả: "Cuộc gọi video rất chân thực, trong đó chị Phan. H.D đang đứng vừa làm việc vừa nói có việc cần lấy hàng gấp nên mượn tạm tôi ít tiền. Tuy nhiên chỉ kịp nói nội dung như vậy, bên kia đã kết thúc cuộc gọi với lý do mạng kém rồi nhắn tin".
Anh Đặng Duy Nhân, chủ một kênh Youtube chuyên sử dụng AI làm video truyện tranh chia sẻ "Các ứng dụng AI tạo video hiện nay khá phổ biến. Từ một bức ảnh có thể tạo ra những chuyển động khá mượt, chỉ cần khớp tiếng vào. Tuy nhiên vì nhiều lý do, các video này sẽ không dài".
Cảnh giác nhận diện
Cục An toàn thông tin khuyến cáo, khi nhận được cuộc gọi nghi ngờ, người dân nên gọi lại cho người thân qua số điện thoại đã biết để xác minh thông tin, tránh vội vàng chuyển tiền theo yêu cầu trong các cuộc gọi video hoặc tin nhắn trên mạng xã hội.
Cảnh giác và bảo vệ tài sản, thông tin cá nhân là điều quan trọng. Người dân cần cẩn trọng khi chia sẻ thông tin cá nhân trên các nền tảng mạng xã hội, hạn chế đăng tải hình ảnh, video cá nhân hoặc thông tin nhạy cảm.
Hãy điều chỉnh quyền riêng tư để hạn chế sự truy cập của người lạ vào tài khoản của bạn. Đồng thời, luôn chú ý đến các tài khoản lạ hoặc dấu hiệu bất thường. Nếu phát hiện tài khoản của người thân hoặc bạn bè có dấu hiệu bị xâm nhập, cần báo ngay cho họ và ngừng tương tác với tài khoản đó.
"Một chi tiết trao đổi giữa hai hay nhóm cá nhân trong các bình luận như một việc làm cụ thể hay cuộc hẹn, cũng có thể bị lợi dụng. Khi kẻ gian đề cập đến chi tiết đó sẽ khiến cho nạn nhân buông lỏng cảnh giác" - Chuyên gia tâm lý Quảng Trọng Bình cho biết, đồng thời khuyên những trao đổi như vậy không nên bình luận công khai mà hãy trao đổi riêng.
Cục An toàn thông tin nêu dấu hiệu hình thức lừa đảo cuộc gọi Deepfake
Đối với các cuộc gọi Deepfake như hiện nay, bằng mắt thường vẫn có thể có một số dấu hiệu để nhận biết như:
- Thời gian gọi thường rất ngắn chỉ vài giây. Khuôn mặt thiếu tính cảm xúc và khá "trơ" khi nói hoặc tư thế trông lúng túng, không tự nhiên hoặc là hướng đầu và cơ thể trong video không nhất quán với nhau…
- Màu da của nhân vật trong video bất thường, ánh sáng kỳ lạ và bóng đổ không đúng vị trí. Điều này có thể khiến cho video trông rất giả tạo và không tự nhiên.
- Âm thanh cũng là một vấn đề có thể xảy ra trong video. Âm thanh sẽ không đồng nhất với hình ảnh, có nhiều tiếng ồn bị lạc vào clip hoặc clip không có âm thanh.
- Ngắt giữa chừng, bảo là mất sóng, sóng yếu,... Yêu cầu chuyển tiền mà tài khoản chuyển tiền không phải của người đang thực hiện cuộc gọi.
- Nếu nhận được một cuộc gọi yêu cầu chuyển tiền gấp, trước tiên, người dân hãy bình tĩnh và xác minh thông tin bằng cách liên lạc trực tiếp với người thân, bạn bè thông qua một kênh khác.
- Kiểm tra kỹ số tài khoản được yêu cầu chuyển tiền. Nếu là tài khoản lạ, tốt nhất là không nên tiến hành giao dịch.
- Nếu cuộc gọi từ người tự xưng là đại diện cho ngân hàng, hãy gác máy và gọi trực tiếp cho ngân hàng để xác nhận cuộc gọi vừa rồi có đúng là ngân hàng thực hiện hay không;
- Các cuộc gọi thoại hay video có chất lượng kém, chập chờn là một yếu tố để bạn nghi ngờ người gọi cũng như tính xác thực của cuộc gọi.
  

Mời quý độc giả xem video: Cảnh báo cuộc gọi lừa đảo Deepfake. Video do Báo Tri thức & Cuộc sống sản xuất. 



Tuệ Minh