Cảnh báo lừa đảo dùng Deepfake để giả giọng, mặt người thân

- Phòng An ninh mạng và phòng, chống tội phạm sử dụng công nghệ cao, Công an tỉnh vừa có cảnh báo thủ đoạn lừa đảo mới, đối tượng xấu có thể sử dụng Deepfake gọi video để giả làm người thân vay tiền, nhờ chuyển tiền để chiếm đoạt tài sản.

Công an xã Tân Long (Yên Sơn) tuyên truyền người dân nắm rõ thủ đoạn lừa đảo mới dùng Deepfake để giả giọng, mặt người thân.

Deepfake là công nghệ sử dụng trí tuệ nhân tạo để lấy hình ảnh, giọng nói của một người ghép vào video của người khác. Lợi dụng công nghệ này, đối tượng lừa đảo sẽ tìm kiếm thu thập thông tin cá nhân người dùng trên mạng xã hội… để tạo ra một kịch bản lừa đảo rất tinh vi. Bọn chúng sử dụng những video cũ của người dùng, cắt ghép hoặc dùng công nghệ Deepfake gọi điện để thực hiện hành vi lừa đảo. Đa số video, hình ảnh sẽ phát lại video dưới hình thức mờ ảo, chập chờn như do sóng, mạng wifi kém để dễ đánh lừa nạn nhân tưởng lầm đó là người thân, bạn bè mình.

Cơ quan Công an khuyến cáo người dân cần đặc biệt cảnh giác với thủ đoạn lừa đảo mới tinh vi này. Khi có ai đó đề nghị mượn tiền, nhờ chuyển tiền, người dân cần thận trọng xác minh xem đó có phải là bạn bè, người thân của mình hay không. Trường hợp nghi vấn đối tượng  mạo danh người thân, bạn bè trên mạng xã hội để lừa đảo, chiếm đoạt tài sản, cần báo ngay cho cơ quan Công an gần nhất để được hỗ trợ, xử lý kịp thời.

Công Vượng

Tin cùng chuyên mục