Không nên chuyển tiền nếu bị tống tiền bằng clip sex do deepfake tạo ra

Nếu nạn nhân chấp nhận đưa tiền, họ sẽ rơi vào bẫy và bị kẻ tấn công tống tiền dai dẳng. Do đó, trong trường hợp bị tống tiền bằng clip sex do deepfake tạo ra, cách tốt nhất là không chuyển tiền.


Bị tống tiền bằng clip sex deepfake


Anh Q.N, giám đốc một công ty truyền thông tại TPHCM, cho biết thời gian qua anh liên tục bị một đối tượng đe dọa, buộc chuyển tiền nếu không sẽ phát tán clip sex của anh với một cô gái.


Kẻ tống tiền liên hệ qua Telegram, gửi một đoạn video ghi lại cảnh một người có gương mặt giống anh đang quan hệ với một cô gái trong khách sạn.


IMG_83592675F354 1.jpeg
Diễn viên nổi tiếng Gal Gadot từng nhiều lần bị ghép mặt vào các bộ phim khiêu dâm. Ảnh minh hoạ

Anh Q.N hoàn toàn bất ngờ khi phát hiện một đoạn clip sex có hình ảnh của mình, dù anh khẳng định chưa bao giờ vào khách sạn.


Sau một hồi suy nghĩ, anh chợt nhớ đến các vụ tống tiền bằng clip sex được tạo ra bởi công nghệ deepfake trong thời gian gần đây. Lúc này, anh mới nhận ra mình đã trở thành nạn nhân của một nhóm tội phạm công nghệ cao.


Kẻ gửi clip đã đe dọa anh, yêu cầu chuyển 30 triệu đồng để xóa clip, nếu không sẽ phát tán đến đồng nghiệp và các nhóm trên mạng xã hội.


Tuy nhiên, anh Q.N kiên quyết từ chối, khẳng định rằng đoạn clip đó không thể là mình và thách thức đối tượng muốn làm gì thì làm. Thấy anh không sợ hãi, kẻ tống tiền đã rút lui và không liên lạc lại.


Trái ngược với anh Q.N, trường hợp của anh H.T lại phức tạp hơn. Trong một lần say rượu, anh đã tham gia một nhóm "show hàng" trên Telegram để tìm kiếm đối tác chat sex.


Một tài khoản nữ đã nhận lời, yêu cầu anh kết bạn qua Zalo để "kiểm tra hàng". Sau khi nhìn thấy hình ảnh cô gái và tin tưởng, anh H.T đã trao đổi riêng tư, thậm chí gửi cả hình ảnh nhạy cảm của mình.


Gần một tháng sau, anh bất ngờ nhận được tin nhắn từ một tài khoản lạ trên Telegram. Người này gửi cho anh một đoạn clip sex có hình ảnh anh đang quan hệ với cô gái trước đó.


Kẻ tống tiền ra điều kiện: anh phải chuyển 50 triệu đồng, nếu không clip sẽ bị gửi đến gia đình, bạn bè và cả đối tác làm ăn.


Đáng lo ngại hơn, kẻ này còn nắm rõ thông tin cá nhân của anh H.T, từ số điện thoại của vợ, tài khoản mạng xã hội, hình ảnh vợ con, thậm chí cả địa chỉ nhà riêng. Ngoài ra, hắn còn biết về các mối quan hệ cá nhân và công việc của anh.


Ban đầu, anh H.T phủ nhận, cho rằng mình chưa từng gặp cô gái kia ngoài đời, chỉ chat trên mạng. Nhưng khi nhớ lại những lần trao đổi riêng tư cùng các hình ảnh nhạy cảm đã gửi, cộng thêm việc kẻ tống tiền nắm quá rõ về đời tư của mình, anh quyết định chuyển 30 triệu đồng để tránh rắc rối.


Tuy nhiên, mọi chuyện không dừng lại ở đó. Mỗi tháng, kẻ tống tiền tiếp tục đe dọa và ép anh chuyển thêm tiền. Tổng số tiền anh phải trả đã lên đến 100 triệu đồng.


Chỉ khi anh tuyên bố không còn khả năng chi trả, thậm chí gửi bằng chứng về các khoản nợ ngân hàng, kẻ tống tiền mới dừng lại.


Cần giữ vững lập trường và tuyệt đối không gửi tiền cho kẻ tống tiền


Ông Võ Đỗ Thắng, Giám đốc Trung tâm An ninh mạng Athena, cho biết các vụ tấn công tống tiền bằng clip sex giả mạo sử dụng công nghệ deepfake đang gia tăng trong thời gian gần đây.


Nguyên nhân chính là do sự xuất hiện của ngày càng nhiều công cụ AI hỗ trợ việc tạo ra những video này một cách tinh vi.


Theo ông Thắng, hầu hết các nhóm tội phạm đứng sau các vụ tống tiền này hoạt động từ Campuchia và thường nhắm vào những người có vị trí, địa vị trong xã hội.


Các nạn nhân thường không muốn báo cho cơ quan chức năng do e ngại ảnh hưởng đến đời sống cá nhân hoặc công việc.


Vì vậy, ngoại trừ một số người hiểu rõ về công nghệ và thủ đoạn của nhóm tội phạm này, nhiều nạn nhân đã chấp nhận trả tiền.


Tuy nhiên, ông Thắng nhấn mạnh rằng các nạn nhân tuyệt đối không nên chuyển tiền, bởi việc thỏa hiệp chỉ khiến họ tiếp tục bị khai thác và tống tiền kéo dài. Thay vào đó, họ cần nhanh chóng liên hệ với các đơn vị chuyên môn để có biện pháp xử lý triệt để.


Ông Vũ Ngọc Sơn, Giám đốc Kỹ thuật Công ty Công nghệ An ninh mạng Việt Nam – NCS, cũng nhận định rằng việc xác định các clip sex giả mạo bằng deepfake ngày càng trở nên khó khăn.


Trước đây, các video chủ yếu chỉ ghép mặt, nên vẫn có thể phát hiện dấu hiệu chỉnh sửa. Nhưng với công nghệ AI tạo sinh hiện nay, kẻ xấu có thể tạo ra một video hoàn chỉnh từ đầu, thay vì chỉ ghép mặt, khiến việc phân biệt thật - giả gần như bất khả thi.


Dù vậy, theo ông Sơn, những nạn nhân bị tấn công bằng hình thức này hoàn toàn có thể công khai rằng họ là nạn nhân của video giả mạo để tránh bị thao túng và tống tiền.









Khong nen chuyen tien neu bi tong tien bang clip sex do deepfake tao ra


Neu nan nhan chap nhan dua tien, ho se roi vao bay va bi ke tan cong tong tien dai dang. Do do, trong truong hop bi tong tien bang clip sex do deepfake tao ra, cach tot nhat la khong chuyen tien.

Không nên chuyển tiền nếu bị tống tiền bằng clip sex do deepfake tạo ra

Nếu nạn nhân chấp nhận đưa tiền, họ sẽ rơi vào bẫy và bị kẻ tấn công tống tiền dai dẳng. Do đó, trong trường hợp bị tống tiền bằng clip sex do deepfake tạo ra, cách tốt nhất là không chuyển tiền.
Không nên chuyển tiền nếu bị tống tiền bằng clip sex do deepfake tạo ra
www.tincongnghe.net
Giới thiệu cho bạn bè
  • gplus
  • pinterest

Bình luận

Đăng bình luận

Đánh giá: