Anh xây dựng hệ thống phát hiện nội dung Deepfake

Nguồn:
Trong bối cảnh trí tuệ nhân tạo (AI) phát triển với tốc độ vượt bậc, việc bảo vệ trẻ em trên không gian số đòi hỏi sự quan tâm sát sao và một cơ chế trách nhiệm rõ ràng, minh bạch, đồng bộ hơn. Vừa qua, Chính phủ Anh công bố kế hoạch phối hợp Microsoft cùng giới học thuật triển khai khung đánh giá phát hiện Deepfake đầu tiên trên thế giới.

Thông báo đăng tải trên Cổng thông tin chính phủ ngày 5/2 cho biết, Bộ Nội vụ Anh đã khởi động sáng kiến mới nhằm ứng phó với sự gia tăng của nội dung Deepfake - công nghệ chỉnh sửa hình ảnh, âm thanh bằng trí tuệ nhân tạo (AI) đang gây ra nhiều hệ lụy trên không gian mạng. Theo kế hoạch, Anh sẽ phối hợp Microsoft, các trường đại học và giới chuyên gia công nghệ để phát triển hệ thống phát hiện Deepfake. Đồng thời xây dựng một khung đánh giá chung phục vụ công tác nhận diện, kiểm chứng nội dung.

Ngoài ra, Chính phủ Anh sẽ tổ chức "Thử thách phát hiện Deepfake" do Microsoft đăng cai, quy tụ hơn 350 chuyên gia quốc tế, trong đó có đại diện của Tổ chức Cảnh sát hình sự quốc tế (Interpol) và cộng đồng Five Eyes. Các nhóm tham gia xử lý nhiều tình huống mô phỏng sát thực tế như nhận diện nạn nhân, bảo vệ quy trình bầu cử, phòng chống tội phạm có tổ chức và gian lận tài liệu. Giới chức Anh nhấn mạnh, hệ thống đánh giá mới không chỉ nâng cao năng lực phát hiện nội dung giả mạo mà còn tạo nền tảng bảo vệ nạn nhân, củng cố niềm tin xã hội, xây dựng môi trường số an toàn hơn trước các mối đe dọa từ AI.

Theo kế hoạch, Anh sẽ xây dựng một khung đánh giá chung nhằm kiểm tra hiệu quả của các công cụ phát hiện Deepfake trong những tình huống thực tế như lừa đảo, giả mạo danh tính hay xâm hại cá nhân. Khung đánh giá này sẽ giúp chính phủ và các lực lượng thực thi pháp luật xác định những lỗ hổng còn tồn tại, đồng thời thiết lập các chuẩn mực rõ ràng cho doanh nghiệp công nghệ.

Động thái được đưa ra trong bối cảnh Chính phủ Anh cảnh báo công nghệ Deepfake đang bị các đối tượng tội phạm lợi dụng để thực hiện hành vi lừa đảo, xâm hại phụ nữ và trẻ em, qua đó làm suy giảm niềm tin của công chúng đối với môi trường số. Dẫn thống kê từ Bộ Nội vụ Anh, riêng năm 2025 ước tính có khoảng 8 triệu nội dung Deepfake được chia sẻ. Những sản phẩm do AI tạo ra gồm hình ảnh, video, âm thanh thường bị lợi dụng nhằm chiếm đoạt tài sản, phát tán thông tin gây hại, thao túng hình ảnh phụ nữ, trẻ em. Tội phạm ngày càng sử dụng Deepfake để giả danh người thân, người nổi tiếng hoặc nhân vật chính trị trong nhiều vụ lừa đảo tinh vi, khi chi phí tạo nội dung ngày càng rẻ và không cần chuyên môn kỹ thuật.

Đáng chú ý, nghiên cứu do Quỹ Nhi đồng Liên Hợp Quốc (UNICEF) công bố ngày 4/2 cho thấy, tình trạng lạm dụng Deepfake tạo nội dung không lành mạnh liên quan trẻ em gia tăng đáng báo động. Khảo sát tại 11 quốc gia ghi nhận ít nhất 1,2 triệu trẻ em bị chỉnh sửa thành video độc hại trong vòng một năm qua. Đáng chú ý tại một số khu vực, tỷ lệ tương đương 1/25 trẻ em - tức trung bình mỗi lớp học có một nạn nhân. Hai phần ba trẻ em tham gia khảo sát bày tỏ lo ngại AI bị lợi dụng để tạo hình ảnh hoặc video giả mạo. UNICEF cảnh báo, ngay cả khi không xác định cụ thể nạn nhân, nội dung do AI tạo ra vẫn góp phần bình thường hóa hành vi bóc lột, làm gia tăng thách thức với công tác thực thi pháp luật.

Theo antoanthongtin.vn