Thời gian gần đây xuất hiện một ứng dụng mang tên DeepNude sử dụng AI biến những hình ảnh chụp phụ nữ thành những bức ảnh khỏa thân.
DeepNude bắt đầu được lan rộng thông qua diễn đàn Reddit, nơi các tài khoản mạng sử dụng công nghệ này để tạo ra những bức ảnh lõa thể của những người nổi tiếng nhằm bàn tán và trao đổi. Dần dần người dùng bắt đầu tạo ra các bức ảnh giả của người quen như bạn bè, đồng nghiệp thậm chí người thân.
Nếu quan sát kỹ các bức ảnh giả sẽ rất dễ bị phát hiện do ảnh dễ bị vỡ nét, màu da mờ đục tuy nhiên nếu chỉnh ở độ phân giải thấp hay nhìn thoáng qua các bức ảnh sẽ trông vô cùng chân thực.
Dù rằng các hình ảnh khi “xuất xưởng” sẽ được đóng dấu ảnh giả để tránh bị sử dụng bất hợp pháp nhưng phần đánh dấu này không hề khó xóa bỏ đối với những người có kỹ năng chỉnh sửa ảnh sơ cấp. Giới chức trách lo ngại công cụ này sẽ tiếp tay cho kẻ xấu.
Những hình ảnh lõa thể dù thật hay giả đều có những ảnh hưởng xấu đến cuộc sống của bất kỳ ai. Điển hình là hình thức trả thù tình khi kẻ xấu đăng tải ảnh nhạy cảm của đối phương nhằm mục đích bêu xấu, quấy rối, đe dọa và bịt miệng phụ nữ.
Thậm chí còn xuất hiện cả những diễn đàn, người dùng trả tiền cho các chuyên gia để tạo ra các bức ảnh chân thực của bạn bè, đồng nghiệp,...
Chỉ vài giờ sau khi giới truyền thông lên tiếng chỉ trích, DeepNude đã ngừng cung cấp dịch vụ này. Trả lời the Verge, chủ nhân của ứng dụng - xưng là Alberto - cho biết ứng dụng này được lấy cảm hứng từ thiết bị “kính nhìn xuyên thấu” trong truyện tranh và phim hoạt hình.
Anh cho rằng anh chỉ là người đầu tiên thực hiện nó, không sớm thì muộn cũng sẽ có người làm ra. Alberto lấy lí do đơn giản là do công nghệ để chế tạo ra những sản phẩm này hoàn toàn trong tầm với, việc biến ứng dụng thành hiện thực chỉ là tiên phong. Alberto mong có thể thu lời từ bước đi sớm của mình.
Tuy nhiên phía nhà sáng lập cho biết sẽ sớm từ bỏ ứng dụng này
“Ban đầu chúng tôi chỉ sáng tạo ra DeepNude với mục đích giải trí và chất lượng của nó không tốt đến vậy, chúng tôi không nghĩ nó trở nên nổi tiếng. Chúng tôi đã đánh giá thấp nhu cầu của người dùng”, Alberto cho hay.
Cơn ác mộng mang tên DeepNude đã sớm đi đến hồi kết, tuy nhiên ứng dụng này chỉ mở đầu cho một hướng đi mới độc hại của công nghệ cao. Trong thời gian tới, công nghệ deepfake sẽ được trau chuốt, mài giũa ngày một tinh xảo hơn, khi các bức ảnh thậm chí video giả càng khó nhận biết hơn, khi đó con người sẽ đứng trước các nguy cơ tiềm tàng về xâm phạm quyền riêng tư.