
Ảnh minh họa.
Công nghệ AI bị lợi dụng, Deepfake trở thành "vũ khí" mới
Trí tuệ nhân tạo (AI) đang làm thay đổi thế giới theo nhiều chiều hướng, trong đó có cả tích cực lẫn tiêu cực. Với giới tội phạm, AI trở thành công cụ giúp thực hiện hành vi lừa đảo và tấn công mạng dễ dàng hơn bao giờ hết. Những phần mềm giá rẻ, được rao bán tràn lan trên "chợ đen" mạng (dark web) đã cho phép ngay cả những đối tượng không giỏi công nghệ cũng có thể triển khai các hình thức lừa đảo, tống tiền, hoặc phát tán mã độc.
Theo một chuyên gia của dự án chống lừa đảo, tội phạm mạng hiện chỉ cần bỏ ra 25-30 USD để sở hữu phần mềm Deepfake, giả mạo các cơ quan chức năng nhằm lừa đảo người dân. Một số nhóm tội phạm tại Campuchia thậm chí đã phát triển công cụ đến mức chỉ cần nhập kịch bản và danh sách tài khoản Facebook, hệ thống sẽ tự động tương tác và điều hướng nạn nhân theo các kịch bản sẵn có. Trung bình mỗi ngày, hình thức này có thể đánh lừa hàng nghìn người.
Với phần mềm Deepfake và Deepvoice, chỉ cần một tấm ảnh hoặc một đoạn ghi âm dài 20-30 giây, tội phạm có thể tạo ra video lừa đảo sống động như thật. Hệ lụy là không nhỏ. Đã có những vụ việc khiến nạn nhân thiệt hại hàng chục triệu USD. Điển hình là vụ việc tại Hồng Kông, khi một nhân viên công ty đa quốc gia bị lừa chuyển 25 triệu USD cho kẻ mạo danh giám đốc tài chính trong một cuộc họp video.
Không dừng lại ở đó, tội phạm còn dùng AI để tạo nội dung xấu độc, bôi nhọ danh dự cá nhân, hoặc phát tán các đoạn mã độc. Một xu hướng nguy hiểm khác là tạo các trang web giả mạo nhằm lấy cắp thông tin hoặc lừa đảo đầu tư tài chính.
Người dùng mạng xã hội đang "mở cửa" cho tội phạm
Một trong những nguyên nhân khiến tội phạm mạng dễ dàng giả mạo và tấn công là do thói quen chia sẻ quá nhiều thông tin cá nhân trên mạng xã hội như Facebook, TikTok, Instagram. Việc công khai ảnh đại diện, danh sách bạn bè hay các khoảnh khắc đời thường đã vô tình trở thành nguồn dữ liệu quý giá cho tội phạm công nghệ.
Thậm chí, một số đối tượng còn chủ động kết bạn, trò chuyện rồi chụp ảnh nạn nhân nhằm tạo cơ sở giả mạo. Từ những hình ảnh này, chúng có thể tạo ra video Deepfake hoặc cắt ghép thành các nội dung nhạy cảm để tống tiền.
Trong số 4 hình thức giả mạo phổ biến ở Việt Nam, Deepfake đang được đánh giá là tinh vi nhất, với khả năng tái tạo khuôn mặt và giọng nói gần như hoàn hảo. Tội phạm sử dụng AI để tạo ảnh Deepfake nhằm qua mặt hệ thống xác thực
Trước thực trạng này, Bộ Công an cũng đã nhắn tin cảnh báo người dân về hình thức lừa đảo mới. Đồng thời cho biết, tội phạm có thể sử dụng Deepfake không chỉ để lừa đảo tài chính mà còn giả mạo tình cảm, tạo các nhân vật hư cấu rồi tương tác qua video call để lấy lòng tin nạn nhân và yêu cầu chuyển tiền vì "sự cố bất ngờ" hay "chi phí đi lại".
Các chuyên gia an ninh mạng khuyến cáo người dùng cần đưa các hình ảnh cá nhân về chế độ "chỉ bạn bè", và danh sách bạn bè về chế độ "chỉ mình tôi". Ngoài ra, khi nghi ngờ bị gọi video Deepfake, người dùng có thể kiểm tra bằng cách yêu cầu người gọi thực hiện hành động bất ngờ như quay trái, quay phải, đứng lên, ngồi xuống nhằm xác minh danh tính thực.
Ngoài ra, các chuyên gia cũng kêu gọi cộng đồng sử dụng công nghệ một cách có trách nhiệm. AI là một công cụ mạnh mẽ nhưng cũng tiềm ẩn nhiều rủi ro nếu rơi vào tay kẻ xấu. Để tự bảo vệ mình, mỗi người dùng cần thay đổi thói quen sử dụng mạng xã hội, cẩn trọng hơn với thông tin cá nhân và không nên dễ dãi trước các lời mời kết bạn hay cuộc gọi video lạ.
Chỉ bằng một vài thao tác đơn giản để giới hạn quyền riêng tư, người dùng đã góp phần quan trọng trong việc ngăn chặn tội phạm mạng, bảo vệ bản thân và cộng đồng trước làn sóng lừa đảo công nghệ ngày càng tinh vi và khó lường.
Trích dẫn
Phần lớn hình thức lừa đảo trực tuyến này nhắm tới việc lừa đảo tài chính. Nên khi người dân nhận được các cuộc gọi liên quan đến các nội dung về tài chính thì nên tỉnh táo xác nhận thêm.
* Dấu hiệu nhận biết:
Thời gian gọi thường rất ngắn chỉ vài giây.
Khuôn mặt thiếu tính cảm xúc và khá "trơ" khi nói, hoặc tư thế trông lúng túng, không tự nhiên, hoặc là hướng đầu và cơ thể trong video không nhất quán với nhau…
Màu da của nhân vật trong video bất thường, ánh sáng kỳ lạ và bóng đổ không đúng vị trí. Điều này có thể khiến cho video trông rất giả tạo và không tự nhiên.
Âm thanh cũng là một vấn đề có thể xảy ra trong video. Âm thanh sẽ không đồng nhất với hình ảnh, có nhiều tiếng ồn bị lạc vào clip hoặc clip không có âm thanh.
Ngắt giữa chừng, bảo là mất sóng, sóng yếu... Yêu cầu chuyển tiền mà tài khoản chuyển tiền không phải của người đang thực hiện cuộc gọi.