Các đối tượng sử dụng công nghệ trí tuệ nhân tạo để tạo ra những video hoặc hình ảnh giả, sao chép chân dung (deepfake) để tạo ra các đoạn video giả người thân, bạn bè của nạn nhân để thực hiện các cuộc gọi lừa đảo trực tuyến.
Phát sóng trực tiếp, trò chuyện khá tự nhiên nhưng lại chỉ là những hình ảnh hoàn toàn do AI tạo ra.
Nhận biết cuộc gọi deepfake
Theo ông Trần Quang Hưng, Phó Cục trưởng Cục An toàn thông tin (Bộ TT&TT), dấu hiệu nhận diện cuộc gọi lừa đảo deepfake là khuôn mặt người gọi thiếu cảm xúc, hướng đầu và cơ thể không nhất quán, màu da bất thường, kẻ gian thường ngắt giữa chừng rồi báo mất sóng, sóng yếu.
"Deepfake đang là một mối đe dọa đối với sự trung thực và tin cậy của video và hình ảnh. Nó có thể được sử dụng không chỉ để lừa đảo trực tuyến mà còn sử dụng cho các mục đích khác như tấn công chính trị, tạo ra những tin tức giả mạo hoặc phá hoại danh tiếng của người khác", ông Hưng cho hay.
Deepfake sẽ quét video và ảnh chân dung của một người sau đó hợp nhất với video riêng biệt nhờ AI và thay thế các chi tiết trên gương mặt như mắt, miệng, mũi với chuyển động gương mặt, giọng nói như thật. Càng có nhiều hình ảnh gốc thì AI càng có nhiều dữ liệu để học. Deepfake có thể thay đổi khuôn mặt của người này sang người khác trong video với độ chân thực đến kinh ngạc. Hiện nay, deepfake đang trở thành nỗi ám ảnh, là "bóng ma" trong thế giới Internet được tội phạm dùng để lừa đảo.
Đầu tiên, kẻ gian sẽ hack Facebook của nạn nhân và dùng nó để gửi tin nhắn mượn tiền. Để tạo thêm lòng tin, tội phạm mạng sẽ tạo video giả mạo khuôn mặt và giọng nói của nạn nhân, sau đó thực hiện cuộc gọi trong vài giây và tắt với lý do mạng, tín hiệu Internet kém.
Phó Cục trưởng Cục An toàn thông tin Trần Quang Hưng cho biết, đối với các cuộc gọi deepfake có thể nhận diện bằng mắt thường.
Dấu hiệu đầu tiên và dễ nhận biết nhất chính là chuyển động của mắt không được tự nhiên hoặc không chớp mắt. Nếu khuôn mặt của một người không thể hiện cảm xúc phù hợp với những gì họ đang nói, có sự biến đổi nhẹ trên khuôn mặt thì rất có thể đó là một video giả mạo khuôn mặt. Ngoài ra, bạn cũng nên thận trọng với những video có vẻ như thật nhưng mặt và mũi của người đó hướng về các hướng khác nhau.
Các công cụ hỗ trợ tạo video deepfake thường tập trung nhiều vào hình ảnh hơn là âm thanh, vì vậy bạn có thể nhận thấy sự khác biệt trong âm thanh hoặc phong cách nói. Hãy chú ý đến khẩu hình khi nói, cách phát âm từ lạ… đây sẽ là những yếu tố để nhận biết video giả mạo.
"Ngoài ra, màu da của nhân vật trong video bất thường, ánh sáng kỳ lạ và bóng đổ không đúng vị trí. Âm thanh sẽ không đồng nhất với hình ảnh, có nhiều tiếng ồn bị lạc vào clip hoặc clip không có âm thanh. Điều này có thể khiến cho video trông rất giả tạo và không tự nhiên. Ngoài ra, các cuộc gọi lừa đảo deepfake thường xảy ra tình huống: Người gọi đề nghị chuyển tiền vào tài khoản không phải của người đang thực hiện cuộc gọi", ông Hưng chỉ rõ.
Cũng theo ông Hưng, hiện không chỉ Việt Nam mà nhiều nước trên thế giới, cùng các công ty công nghệ lớn đang chung tay để tìm giải pháp kỹ thuật nhằm xử lý các vụ lừa đảo deepfake. Ngăn chặn lừa đảo trên không gian mạng là một cuộc chiến trường kỳ. Tuy nhiên, ở góc độ căn cơ, gốc rễ của những vụ lừa đảo trực tuyến phần lớn liên quan đến lừa đảo tài chính.
Để lấy được tiền của nạn nhân, kẻ lừa đảo cần đến các tài khoản chuyển tiền vào. Những đối tượng này sẵn sàng bỏ tiền ra mua các tài khoản ngân hàng không chính chủ với giá rẻ.
"Chúng ta cần ngăn chặn các tài khoản không chính chủ này, đồng bộ thông tin tài khoản ngân hàng với cơ sở dữ liệu quốc gia về dân cư để giải quyết bài toán căn cơ. Nếu vậy, số lượng các vụ lừa đảo trực tuyến sẽ giảm mạnh", Phó Cục trưởng Cục An toàn thông tin nhấn mạnh.
Cần có sự phối hợp đồng bộ chung
Theo ông Ngô Minh Hiếu, Trung tâm Giám sát An toàn Không gian mạng quốc gia (Bộ TT&TT), để tránh bị lừa, người nhận cuộc gọi video hoặc facetime nên duy trì thời gian gọi ít nhất một phút, hoặc gọi qua số điện thoại cá nhân của người vay tiền. Đồng thời kiểm tra bằng cách hỏi một số câu hỏi để nghe giọng nói đó là của người thật hay do AI tạo ra.
Ngoài ra, công nghệ thay đổi hàng ngày. Đây chỉ là công cụ được những kẻ lừa đảo sử dụng. Việc chống lừa đảo trực tuyến không đơn giản là vấn đề kỹ thuật mà cần có sự phối hợp đồng bộ chung giữa cả mặt công nghệ, pháp lý và cơ chế.
Trung tá Lê Minh Hải, Phó trưởng Phòng Cảnh sát Hình sự (Công an TP. Hà Nội) cảnh báo người dân cần nâng cao cảnh giác với các cuộc gọi hỏi vay, mượn tiền, chuyển khoản, tránh việc xác nhận qua cuộc gọi video, đặc biệt là khi nhận các tin nhắn, cuộc gọi, đường link lạ. Trong trường hợp nhận được những yêu cầu này, cần giữ thái độ bình tĩnh, cẩn thận xác thực lại thông tin bằng cách gọi điện thoại hoặc có thể gặp trực tiếp để trao đổi thông tin chính xác trước khi chuyển tiền.
Bên cạnh đó, nên cẩn trọng với các thông tin cá nhân trên mạng xã hội, không nên để lộ thông tin riêng tư như số nhà, số căn cước công dân, video, hình ảnh lên mạng xã hội. Lấy ví dụ về thủ đoạn các đối tượng lừa đảo phụ huynh học sinh vừa qua, chỉ huy Phòng Cảnh sát Hình sự cũng cảnh báo, hiện nhiều bậc phụ huynh hay đưa thông tin, hình ảnh cá nhân, con cái lên mạng xã hội. Cùng với đó, tình trạng lộ, lọt thông tin cá nhân, của con cái qua các hội, nhóm học thêm, phụ huynh… cũng đã xảy ra.
Nhiều người khi đăng ký mạng xã hội bằng số điện thoại cá nhân, và khi đối tượng lừa đảo kiểm tra qua mạng xã hội từ số điện thoại này dễ dàng biết được thông tin cá nhân, từ đó lập kế hoạch lừa đảo. Đây cũng là kẽ hở để kẻ gian dễ dàng xây dựng những kịch bản lừa đảo ngày càng tinh vi. Do vậy, người dân phải chủ động nâng cao ý thức cảnh giác của mình, tăng cường ý thức bảo mật thông tin cá nhân, gia đình, con cái, tránh làm "mồi" cho các đối tượng tội phạm.
Trung tá Lê Minh Hải khuyến cáo, tội phạm lừa đảo công nghệ cao là tội phạm ẩn, không tiếp xúc. Chính vì vậy, nếu liên quan đến tiền, vay mượn, chuyển khoản, người dân cần hết sức cảnh giác. Trong những trường hợp này, hãy xác minh, gặp gỡ trực tiếp, thông báo ngay cho cơ quan Công an để tránh bị sa vào bẫy lừa của các đối tượng.
Theo Báo Chính phủ
Link nguồn: https://baochinhphu.vn/toi-pham-an-lua-dao-tai-chinh-lam-the-nao-giai-quyet-bai-toan-can-co-102230708134003352.htm