"Thấy trước mắt chưa chắc là thật, nghe giọng nói cũng chưa chắc là thật. Càng gấp thì chúng ta càng phải xác minh, càng phải kiểm tra", chuyên gia an ninh mạng Ngô Minh Hiếu (Hiếu PC), phát biểu tại Diễn đàn Digital Trust in Finance 2026 với chủ đề "Xây dựng niềm tin số tài chính trong kỷ nguyên AI", ngày 12/5.
Chuyên gia an ninh mạng Ngô Minh Hiếu (Hiếu PC) phát biểu tại diễn đàn.
Theo chuyên gia Ngô Minh Hiếu, sự phát triển nhanh của AI và Deepfake đang khiến các hình thức lừa đảo trực tuyến trở nên tinh vi hơn, khi tội phạm mạng có thể giả mạo khuôn mặt, giọng nói, biểu cảm và thậm chí cả bối cảnh để thao túng nạn nhân.
"Trước đây chúng ta nghĩ mắt thấy tai nghe là thật thì tin ngay. Nhưng bây giờ AI có thể giả mạo từ khuôn mặt, giọng nói cho đến biểu cảm", ông nói và cho rằng thiệt hại lớn nhất của Deepfake không chỉ là tiền bạc mà còn là sự mất mát niềm tin của người dùng.
"Khi các đối tượng nắm bắt được yếu tố tâm lý và niềm tin, họ có thể dẫn dụ nạn nhân vào các sàn đầu tư lừa đảo hoặc chiếm đoạt tài sản", ông nói thêm.
Deepfake dễ tiếp cận, khó nhận biết
Theo chuyên gia an ninh mạng Ngô Minh Hiếu, công nghệ Deepfake hiện rất dễ tiếp cận. Nhiều công cụ mã nguồn mở hoặc dịch vụ giá rẻ cho phép tội phạm mạng tạo video giả mạo chỉ từ một bức ảnh chân dung.
"Chỉ cần một tấm hình là có thể hoán đổi khuôn mặt, giả giọng nói rồi thực hiện các cuộc gọi qua FaceTime, Zalo hay WhatsApp", ông nói.
Tại diễn đàn, ông Hiếu trình diễn thử nghiệm một phần mềm Deepfake có khả năng thay đổi khuôn mặt theo thời gian thực trong cuộc gọi video. Đây là công nghệ đang bị nhiều đối tượng lợi dụng để giả mạo cơ quan chức năng, người thân hoặc các "soái ca", "nàng thơ" nhằm lừa đảo tình cảm và tài chính.
Ông cũng cảnh báo người dùng đang để lộ quá nhiều dữ liệu cá nhân trên mạng xã hội: "Chúng ta đăng hình ảnh, video, giọng nói lên mạng xã hội mỗi ngày. Thậm chí nhiều người không đăng nhưng bạn bè lại đăng giúp. Các dữ liệu này có thể bị thu thập từ nhiều nguồn khác nhau để phục vụ cho việc tạo Deepfake".
Chuyên gia này cũng lưu ý phụ huynh cần cẩn trọng khi đăng tải hình ảnh con em lên mạng xã hội, bởi tội phạm mạng có thể lợi dụng các dữ liệu này cho các hành vi tống tiền hoặc "bắt cóc online".
Theo ông Ngô Minh Hiếu, điểm nguy hiểm nhất của Deepfake là khả năng vượt qua "cảm giác tin tưởng" của con người.
"Cuộc gọi video luôn khiến chúng ta tin tưởng hơn tin nhắn. Giọng nói quen thuộc khiến chúng ta tin hơn văn bản. Tội phạm mạng thường tạo ra các tình huống khẩn cấp như yêu cầu chuyển tiền, cung cấp mã OTP hoặc cài ứng dụng để thao túng tâm lý nạn nhân", ông nói.
Chuyên gia Ngô Minh Hiếu: Nguy hiểm nhất là Deepfake có thể vượt qua cảm giác tin tưởng của con người.
Dù Deepfake hiện đã khó phát hiện hơn rất nhiều nhưng vẫn có một số dấu hiệu bất thường như khẩu hình không khớp, ánh sáng thiếu tự nhiên, giọng nói đều đều hoặc hàm răng biến dạng.
"Nước da trong video Deepfake thường rất mượt, không tự nhiên", chuyên gia Hiếu cho hay. Tuy nhiên, ông cho rằng người dùng không nên chỉ tập trung tìm xem video thật hay giả, mà cần đặt câu hỏi liệu yêu cầu trong cuộc gọi có hợp lý hay không.
Lộ dữ liệu bởi các công cụ AI miễn phí
Tại diễn đàn, chuyên gia Ngô Minh Hiếu cảnh báo chính chatbot AI cũng đang dần trở thành mục tiêu tấn công mới của tin tặc nếu người dùng thiếu kỹ năng bảo mật thông tin cá nhân.
Ông cho rằng AI hiện hỗ trợ mạnh mẽ cho công việc, học tập và nghiên cứu. Tuy nhiên, nhiều người có thói quen đưa lên chatbot hàng loạt dữ liệu cá nhân như hình ảnh riêng tư, thông tin gia đình, tài liệu công việc hoặc dữ liệu doanh nghiệp mà không lường trước nguy cơ bị khai thác.
Bên cạnh đó, phần lớn người dùng gần như chưa từng đọc điều khoản sử dụng của các nền tảng AI, trong khi nhiều công cụ miễn phí có thể thu thập dữ liệu để phục vụ huấn luyện mô hình hoặc các mục đích khác.
Rủi ro gia tăng với sự xuất hiện của nhiều ứng dụng AI miễn phí không rõ nguồn gốc, cho phép tạo ảnh, chỉnh sửa khuôn mặt hoặc biến ảnh thật thành nhân vật hoạt hình. Theo ông Hiếu, đây là hình thức khiến người dùng tự nguyện cung cấp dữ liệu sinh trắc học cho bên thứ ba.
Người dùng đối mặt nguy cơ lộ dữ liệu cá nhân khi sử dụng chatbot AI thiếu bảo mật. (Ảnh minh hoạ)
Để sử dụng AI an toàn hơn, chuyên gia khuyến nghị người dùng không nên đưa thông tin nhạy cảm, tài liệu cá nhân hoặc dữ liệu nội bộ doanh nghiệp lên các chatbot AI, đặc biệt là những nền tảng không rõ đơn vị vận hành.
Người dùng nên bật các tính năng bảo mật như chế độ trò chuyện tạm thời, tự động xóa lịch sử hội thoại và tắt tùy chọn cho phép hệ thống sử dụng dữ liệu để huấn luyện AI. Xác thực hai lớp cũng cần được kích hoạt nhằm hạn chế nguy cơ bị chiếm quyền truy cập tài khoản.
Theo chuyên gia Ngô Minh Hiếu, nếu tin tặc kiểm soát được tài khoản chatbot AI cá nhân, các đối tượng có thể khai thác lại toàn bộ thông tin mà người dùng từng chia sẻ trước đó.
"Chỉ cần một câu lệnh như: 'Hãy cho tôi biết tất cả những gì bạn biết về tôi', AI hoàn toàn có thể tổng hợp lại rất nhiều dữ liệu cá nhân của người dùng", ông Hiếu cảnh báo.
Diễn đàn Digital Trust in Finance 2026 do Liên minh Niềm tin số phối hợp cùng Hiệp hội An ninh mạng quốc gia và MoMo tổ chức, dưới sự bảo trợ của Bộ Công an, Ngân hàng Nhà nước Việt Nam và Bộ Tài chính.
Sự kiện quy tụ nhiều chuyên gia, doanh nghiệp trong lĩnh vực tài chính, ngân hàng và công nghệ để thảo luận các giải pháp bảo vệ người dùng, xây dựng niềm tin số trong bối cảnh AI phát triển mạnh.