Cơ quan quản lý an toàn trực tuyến của Úc đã bày tỏ lo ngại về nền tảng trí tuệ nhân tạo Grok trong bối cảnh số lượng khiếu nại tăng mạnh liên quan đến hình ảnh tình dục do AI tạo ra mà không có sự đồng thuận.
Ủy viên eSafety cho biết các báo cáo về hành vi xâm phạm hình ảnh được tạo bằng trí tuệ nhân tạo đã tăng gấp đôi kể từ cuối năm 2025, phản ánh xu hướng gia tăng toàn cầu trong việc lạm dụng các công cụ trí tuệ nhân tạo tạo nội dung. Một số khiếu nại được cơ quan quản lý xem xét liên quan đến trẻ em, làm dấy lên lo ngại nghiêm trọng về tội phạm và an toàn trẻ em.
Theo Ủy viên, các hệ thống AI có khả năng tạo ra hình ảnh chân thực quy mô lớn đang ngày càng bị khai thác để tạo ra nội dung khiêu dâm deepfake mà không có sự đồng ý. Các nạn nhân thường phải đối mặt với căng thẳng tâm lý nghiêm trọng, thiệt hại danh tiếng và tổn hại tâm lý lâu dài, trong khi việc gỡ bỏ các tài liệu như vậy có thể chậm trễ và khó khăn một khi chúng lan truyền trên mạng.
Grok đã được trích dẫn như một phần của cuộc xem xét rộng hơn của cơ quan quản lý về các nền tảng AI và các biện pháp bảo vệ của chúng, chứ không phải là nguồn lạm dụng duy nhất. Ủy viên nhấn mạnh rằng tất cả các nhà phát triển AI và nhà điều hành nền tảng có trách nhiệm thực hiện các biện pháp bảo vệ vững chắc, bao gồm cả việc kiểm duyệt nội dung mạnh mẽ hơn, các biện pháp bảo vệ chống lại việc lạm dụng, và quy trình gỡ bỏ nhanh chóng.
Úc có một trong những luật an toàn trực tuyến mạnh mẽ nhất thế giới, trao quyền cho Ủy viên eSafety quyền ban hành thông báo gỡ bỏ và phạt tiền đối với các nền tảng không hành động đối với nội dung có hại. Tuy nhiên, sự phát triển nhanh chóng của AI sáng tạo đang thử thách giới hạn của các khung pháp lý hiện có.
“Tốc độ và tính chân thực của hình ảnh do AI tạo ra đã thay đổi cơ bản quy mô của các hành vi lạm dụng dựa trên hình ảnh,” Ủy viên cho biết, cảnh báo rằng nếu không có các biện pháp phòng ngừa mạnh mẽ hơn, các khiếu nại có khả năng sẽ tiếp tục gia tăng.
Cơ quan quản lý hiện đang phối hợp với các công ty AI, lực lượng thực thi pháp luật và các đối tác quốc tế để giải quyết vấn đề, đồng thời khuyến khích người dùng báo cáo nội dung có hại và tìm kiếm dịch vụ hỗ trợ khi cần thiết.
Khi các công cụ AI sáng tạo trở nên dễ tiếp cận hơn, vụ việc làm nổi bật áp lực ngày càng tăng đối với các công ty công nghệ để cân bằng đổi mới với trách nhiệm — và đối với các chính phủ để điều chỉnh các luật an toàn cho phù hợp với internet do AI điều khiển.
#AIAbuse #Deepfakes #OnlineSafety #ArtificialIntelligence #TechRegulation



