Theo các chuyên gia của Đại học Purdue, các công cụ trí tuệ nhân tạo (AI) có thể được sử dụng để tạo ra hình ảnh giả mạo Deepfake của các nạn nhân bị bắt nạt trong các tình huống không có thật và sử dụng hình ảnh này để đe doạ hoặc tống tiền các nạn nhân. Đáng chú ý, nhiều nạn nhân không thể chứng nhận rằng những hình ảnh Deepfake đó là giả, dẫn đến tình trạng bỏ học, thậm chí trầm cảm.
Ngoài ra, AI còn có thể tiếp tay cho vấn nạn tự bắt nạt và tự làm hại bản thân trên mạng. Trong đó, người dùng sẽ tạo một tài khoản giả trực tuyến và tự bắt nạt bản thân mình bằng cách sử dụng nhiều công cụ AI.
Các chuyên gia khuyến cáo, các bậc phụ huynh nên đề cao cảnh giác vấn đề bắt nạt trực tuyến sử dụng AI để sớm có cách bảo vệ trẻ vị thành niên trên không gian mạng.
Năm 2023, Quỹ giám sát Internet Watch Foundation (Anh) công bố số liệu thống kê đáng báo động rằng chỉ trong vòng 1 tháng, một trang web đen đã lưu trữ 20.254 hình ảnh do AI tạo ra, trong đó 11.108 hình ảnh khả năng cao là hình ảnh tội phạm. Chính phủ Anh cũng đã xác định được 2.562 hình ảnh thuộc diện tài liệu khai thác tình dục trẻ em; 416 hình ảnh khác là hình ảnh bị cấm theo luật hình sự.
Tương tự như vậy, Trung tâm Chống bóc lột trẻ em của Australia cũng đã nhận được hơn 49.500 báo cáo về tài liệu lạm dụng tình dục trẻ em trong tài khóa 2023–2024, tăng khoảng 9.300 lượt so với năm trước. Khoảng 90% tài liệu Deepfake trực tuyến được cho là có nội dung khiêu dâm. Những số liệu trên phản ánh công nghệ AI đang bị khai thác ngày càng nhiều để tạo ra các tài liệu lạm dụng tình dục trẻ em khó phân biệt với hình ảnh thật.
Bộ An ninh Nội địa Mỹ cũng đã chỉ ra có nhiều cách khác nhau để tạo ra những tài liệu khiêu dâm trẻ em bằng công nghệ AI như các hình ảnh hoặc video được tạo ra dựa trên hình ảnh thật của trẻ em, hoặc sử dụng công nghệ Deepfake để tạo ra những khuôn mặt, giọng nói trẻ em gắn vào những nội dung phản cảm. Deepfake cho phép sử dụng các kỹ thuật và thuật toán AI để tạo ra những nội dung giả mạo một phần hoặc toàn phần.
Điều đáng lo ngại là các tội phạm còn chia sẻ thông tin về cách sử dụng AI để tạo ra những nội dung này, làm tình hình thêm nghiêm trọng. Bộ An ninh nội địa Mỹ từng phát hiện ra những nội dung hướng dẫn về cách sử dụng AI để tạo ra nội dung lạm dụng tình dục trẻ em trên trang web đen.
Trong khi đó, Thorn - một công ty công nghệ an toàn cho trẻ em-cũng đã xác định một loạt cách thức lạm dụng các công cụ AI để tạo ra những loại tài liệu này. Công ty lưu ý rằng việc lạm dụng AI cũng cản trở công tác xác định nạn nhân. Trong khi đó, các phương pháp truyền thống để xác định những nội dung khiêu dâm trẻ em hiện không còn phù hợp, không thể bắt kịp tốc độ của các hành động lạm dụng AI để tạo ra nội dung mới.
* Mời quý độc giả theo dõi các chương trình đã phát sóng của Đài Truyền hình Việt Nam trên TV Online và VTVGo!