Tinh vi chiêu dùng công nghệ deepfake giả hình ảnh, giọng nói lừa đảo
Trong bối cảnh công nghệ trí tuệ nhân tạo (AI) ngày càng phát triển, các hình thức lừa đảo trực tuyến cũng trở nên tinh vi hơn, đặc biệt là việc sử dụng công nghệ deepfake để giả mạo hình ảnh và giọng nói trong các cuộc gọi video.
 |
Nhận được cuộc gọi, nghe được giọng nói và thấy được hình ảnh qua video call của người thân, tuy nhiên một số người vẫn bị lừa chuyển khoản mất tiền. Ảnh: Chính phủ.
|
Mới đây, chị Nguyễn Mai Hoa (Nam Từ Liêm, Hà Nội) cho biết, một hôm đang ngồi họp, thì chị thấy người bạn thân gọi cuộc thoại hình ảnh cho chị. Người bạn thân nhờ chị chuyển gấp cho 10 triệu đồng có việc. Bình thường, nhận tin nhắn vay tiền thì chị nghi ngờ, nhưng đây lại là cuộc gọi hình ảnh, nên chị đã nghĩ đây là bạn thật. Nhưng rồi chị sực nghĩ, người bạn thân kinh tế rất tốt, không bao giờ lại đi vay 10 triệu. Nếu vay, thì phải vay số tiền gấp nhiều lần. Nghi ngờ, chị quay số gọi lại bạn qua ứng dụng mà bạn vừa gọi thì bạn không bắt máy, nói rằng đang họp không tiện. Chị Hoa liền gọi số Viettel, thì bạn nói bị kẻ gian chiếm mất tài khoản, nhờ chị Hoa cảnh báo tới mọi người.
“Thật là may mắn, nếu không tôi đang họp, vội, đầu óc đang phân tán, rất có thể đã bị dính lừa rồi”, chị Hoa chia sẻ với Tri thức và Cuộc sống.
Deepfake là công nghệ sử dụng AI để tạo ra hình ảnh, video hoặc âm thanh giả mạo, khiến người xem khó phân biệt được thật giả. Kẻ xấu có thể lợi dụng công nghệ này để giả mạo khuôn mặt và giọng nói của người thân, bạn bè trong các cuộc gọi video nhằm lừa đảo, chiếm đoạt tài sản hoặc thông tin cá nhân. Tại Việt Nam, các vụ lừa đảo qua video call đang gia tăng, với nhiều nạn nhân là thanh niên, học sinh bị kẻ xấu kết bạn qua mạng xã hội, dụ gọi video, rồi cắt ghép hình ảnh nhạy cảm để tống tiền.
Một số phương thức lừa đảo phổ biến sử dụng công nghệ này có thể kể đến, đó là kẻ gian sử dụng deepfake để tạo ra video hoặc âm thanh giả mạo lãnh đạo doanh nghiệp hoặc cơ quan nhà nước, sau đó liên hệ với nhân viên hoặc đối tác yêu cầu chuyển tiền hoặc cung cấp thông tin nhạy cảm. Mới đây, đã có trường hợp kẻ xấu giả mạo giọng nói của Bí thư Thành ủy TP.HCM Nguyễn Văn Nên để yêu cầu một cán bộ cho vay tiền. May mắn, nạn nhân đã nhận ra sự bất thường và không thực hiện yêu cầu.
Một số đối tượng sử dụng deepfake để giả mạo hình ảnh và giọng nói của cán bộ công an, gọi điện cho nạn nhân thông báo họ liên quan đến vụ án nghiêm trọng và yêu cầu chuyển tiền để "giải quyết". Phương thức này lợi dụng tâm lý lo sợ và thiếu hiểu biết pháp luật của người dân để chiếm đoạt tài sản.
Kẻ xấu thu thập hình ảnh và video của nạn nhân từ mạng xã hội, sau đó sử dụng deepfake để tạo ra nội dung nhạy cảm hoặc phản cảm, đe dọa công khai nếu nạn nhân không chuyển tiền. Phương thức này gây hoang mang và áp lực tâm lý lớn đối với nạn nhân.
Yêu cầu đối phương nhe răng, quay phải, quay trái... để nhận biết giả mạo
Theo các chuyên gia, deepfake sử dụng trí tuệ nhân tạo (AI) và công nghệ học sâu (deep learning) để phân tích và tạo ra các phiên bản giả mạo của con người trong ảnh, video hoặc âm thanh. Công nghệ này hoạt động dựa trên các thuật toán như GAN (Generative Adversarial Networks), cho phép AI "học" từ hàng ngàn hình ảnh và video để tạo ra một bản sao kỹ thuật số trông giống thật đến mức đánh lừa được người xem.
 |
Chuyên gia an ninh mạng Ngô Minh Hiếu (Hiếu PC), người đại diện chongluadao.vn. |
Cách deepfake hoạt động trong các cuộc gọi lừa đảo, đó là kẻ gian thu thập hình ảnh, video, giọng nói của nạn nhân từ mạng xã hội, các bài đăng công khai hoặc video trực tuyến. Sau đó, các thuật toán học máy sẽ "học" giọng nói, cử động khuôn mặt của người đó để tạo ra một phiên bản số hóa sống động. Kẻ xấu sử dụng phần mềm deepfake để giả mạo danh tính của một người thân, đồng nghiệp hoặc sếp của nạn nhân, rồi gọi điện hoặc gửi video nhằm đánh lừa họ. Vì hình ảnh và giọng nói quá giống thật, nạn nhân dễ tin tưởng và làm theo yêu cầu của kẻ giả mạo. So với việc nhắn tin, hình thức lừa đảo này tinh vi hơn, đánh trúng vào lòng tin của nạn nhân hơn.
Vậy làm thế nào để có thể có thể nhận ra được cuộc gọi lừa đảo từ AI deepfake? Chuyên gia an ninh mạng Ngô Minh Hiếu (Hiếu PC), người đại diện chongluadao.vn cho hay, một trong những điểm yếu của công nghệ deepfake hiện nay là không xử lý được các hành động như quay phải, quay trái hoặc đứng lên, đặc biệt là khả năng tái tạo hàm răng trong thời gian thực. Từ đó, dẫn đến việc khi người bị giả mạo há miệng, hình ảnh có thể xuất hiện bất thường như không có hàm răng, hoặc có nhiều hàm răng chồng chéo. Do đó, khi nhận được cuộc gọi video từ người lạ hoặc khi nghi ngờ, người dùng có thể yêu cầu đối phương thực hiện các hành động như quay trái, quay phải, đứng lên hoặc đơn giản là nhe răng để kiểm tra tính xác thực của cuộc gọi.
“Nếu là cuộc gọi giả mạo, thì khi há miệng ra, hình ảnh người có thể không răng, hoặc lại có 3 hàm đến 4 hàm. Cho nên, răng là đặc điểm dễ nhận biết cuộc gọi giả mạo", chuyên gia Hiếu PC cho hay.
Theo các chuyên gia, để bảo vệ bản thân trước các cuộc gọi lừa đảo sử dụng công nghệ deepfake, người dùng nên thực hiện các biện pháp sau:
Xác minh danh tính người gọi: Khi nhận được cuộc gọi từ số lạ hoặc khi có nghi ngờ, hãy gọi lại cho người thân, bạn bè qua số điện thoại quen thuộc để xác minh.
Sử dụng câu hỏi riêng tư: Đặt những câu hỏi mà chỉ người thân thiết mới biết câu trả lời để kiểm tra tính xác thực của người gọi.
Cảnh giác với yêu cầu chuyển tiền hoặc nhấp vào liên kết lạ: Luôn thận trọng khi nhận được yêu cầu chuyển tiền hoặc nhấp vào các liên kết không rõ nguồn gốc.
Cập nhật kiến thức về an ninh mạng: Thường xuyên tìm hiểu và cập nhật thông tin về các hình thức lừa đảo mới để nâng cao nhận thức và kỹ năng phòng tránh.
Chuyên gia an ninh mạng Ngô Minh Hiếu (Hiếu PC) cũng đã lên tiếng về thông tin thiếu sự thật đối với việc "Nhe răng để biết là luadao qua cuộc gọi video AI deepfake" của các trang tin trên mạng xã hội. Theo chuyên gia Hiếu PC, hiện có khá nhiều trang tin trên FB và các trang mạng xã hội khác đang lan toả thông tin phỏng vấn của anh với báo chí chính thống về nhận diện cuộc video deepfake giả mạo. Nhưng họ đăng tải thông tin thiếu và cắt ghép thông tin, chưa kể còn sử dụng hình ảnh của anh ghép chung hình với một câu chuyện lùm xùm drama nào đó của 1 tiktoker - hai câu chuyện hoàn toàn khác nhau và không liên quan để câu view, like - với mỗi đoạn "Nhe răng để biết là lừa đảo qua cuộc gọi video AI deepfake".
“Hoàn toàn là thiếu thông tin và không đầy đủ, làm người đọc chưa hiểu hết, hiểu đầy đủ sự việc và sợ nhất là có thể dẫn đến là sự hiểu sai”, chuyên gia Hiếu cảnh báo. Chuyên gia Hiếu PC mong bạn đọc hãy đọc thông tin từ báo chính thống và luôn kiểm chứng để tránh đọc phải tin thiếu sự thật, một nửa sự thật, tin giả, tin câu view...
Mai Loan