- Gần như toàn bộ nhân viên OpenAI dọa nghỉ việc, theo Sam Altman về Microsoft
- Redmi K70E với MediaTek Dimension 8300 Ultra SoC chính thức bị trêu chọc; Thông số kỹ thuật chính, thiết kế Surface Online
- Redmi K70E với MediaTek Dimension 8300 Ultra SoC chính thức bị trêu chọc; Thông số kỹ thuật chính, thiết kế Surface Online
- Snap để giới thiệu cảnh báo trong ứng dụng, các tính năng an toàn khác để bảo vệ người dùng tuổi teen
- Trắc nghiệm: Cách nhận biết tuổi làm việc thực sự của bạn
“Tôi cảm thấy xui xẻo và bị xâm phạm,” Belle nói trong một cuộc phỏng vấn. “Những phần riêng tư đó không phải để cho cả thế giới xem vì tôi không đồng ý với điều đó. Vì vậy, thật kỳ lạ khi ai đó lại tạo ra hình ảnh của tôi.”
Trí tuệ nhân tạo đang thúc đẩy sự bùng nổ chưa từng có trong năm nay về hình ảnh và video khiêu dâm giả mạo. Nó được kích hoạt nhờ sự gia tăng của các công cụ AI rẻ tiền và dễ sử dụng có thể “cởi đồ” mọi người trong ảnh – phân tích cơ thể trần trụi của họ trông như thế nào và đưa nó vào một bức ảnh – hoặc hoán đổi một cách liền mạch một khuôn mặt thành một video khiêu dâm.
Theo Genevieve Oh, một nhà phân tích ngành, trên 10 trang web hàng đầu lưu trữ ảnh khiêu dâm do AI tạo ra, số lượng ảnh khỏa thân giả đã tăng hơn 290% kể từ năm 2018. Các trang web này có sự góp mặt của những người nổi tiếng và nhân vật chính trị như Dân biểu New York Alexandria Ocasio-Cortez cùng với những cô gái tuổi teen bình thường, những người có ngoại hình giống nhau đã bị những kẻ xấu chiếm giữ để kích động sự xấu hổ, tống tiền hoặc thỏa mãn những ảo tưởng riêng tư.
Nạn nhân có rất ít sự trông cậy. Không có luật liên bang nào quản lý nội dung khiêu dâm deepfake và chỉ một số bang ban hành quy định. Lệnh điều hành AI của Tổng thống Biden ban hành hôm thứ Hai khuyến nghị, nhưng không yêu cầu, các công ty phải dán nhãn ảnh, video và âm thanh do AI tạo ra để biểu thị tác phẩm do máy tính tạo ra.
Trong khi đó, các học giả pháp lý cảnh báo rằng các hình ảnh giả mạo AI có thể không được bảo vệ bản quyền đối với các hình ảnh giống cá nhân, vì chúng lấy từ các tập dữ liệu có hàng triệu hình ảnh. Tiffany Li, giáo sư luật tại Đại học San Francisco, cho biết: “Đây rõ ràng là một vấn đề rất nghiêm trọng.
Sự ra đời của hình ảnh AI có nguy cơ đặc biệt đối với phụ nữ và thanh thiếu niên, nhiều người trong số họ chưa chuẩn bị cho khả năng hiển thị như vậy. Một nghiên cứu năm 2019 của Sensity AI, một công ty giám sát các bức ảnh deepfake, cho thấy 96% hình ảnh deepfake là nội dung khiêu dâm và 99% những bức ảnh đó nhắm mục tiêu đến phụ nữ.
Sophie Maddocks, một nhà nghiên cứu và ủng hộ quyền kỹ thuật số tại Đại học Pennsylvania, cho biết: “Bây giờ nó nhắm mục tiêu rất nhiều đến các cô gái”. “Những cô gái trẻ và phụ nữ không lọt vào mắt công chúng.”
‘Nhìn này, mẹ. Họ đã làm gì với tôi thế?”
Vào ngày 17 tháng 9, Miriam Al Adib Mendiri đang trở về nhà ở miền nam Tây Ban Nha sau một chuyến đi thì thấy cô con gái 14 tuổi của mình đang quẫn trí. Con gái của cô đã chia sẻ một bức ảnh khỏa thân của mình.
“Nhìn này, mẹ. Họ đã làm gì với tôi thế?” Al Adib Mendiri nhớ lại câu nói của con gái mình.
Xem thêm : Giám đốc điều hành Cruise từ chức vài tuần sau khi rút toàn bộ đội tàu không người lái
Cô chưa bao giờ chụp ảnh khỏa thân. Tuy nhiên, theo cảnh sát, một nhóm nam sinh địa phương đã lấy những bức ảnh mặc quần áo từ hồ sơ mạng xã hội của một số cô gái trong thị trấn của họ và sử dụng ứng dụng AI “khỏa thân” để tạo ra những bức ảnh khỏa thân.
Ứng dụng này là một trong nhiều công cụ AI sử dụng hình ảnh thật để tạo ra những bức ảnh khỏa thân đang tràn ngập trên mạng trong những tháng gần đây. Gang Wang, chuyên gia về AI tại Đại học Illinois tại Urbana-Champaign, cho biết, bằng cách phân tích hàng triệu hình ảnh, phần mềm AI có thể dự đoán tốt hơn cơ thể sẽ trông như thế nào và phủ khuôn mặt vào một video khiêu dâm một cách trôi chảy như thế nào.
Mặc dù nhiều trình tạo hình ảnh AI chặn người dùng tạo tài liệu khiêu dâm, phần mềm nguồn mở, chẳng hạn như Stable Diffusion, công khai mã của nó, cho phép các nhà phát triển nghiệp dư điều chỉnh công nghệ – thường nhằm mục đích bất chính. (Stability AI, nhà sản xuất Stable Diffusion, đã không trả lời yêu cầu bình luận.)
Oh cho biết, sau khi các ứng dụng này được công khai, chúng sẽ sử dụng các chương trình giới thiệu để khuyến khích người dùng chia sẻ những bức ảnh do AI tạo này trên mạng xã hội để đổi lấy tiền mặt.
Khi Oh kiểm tra 10 trang web hàng đầu lưu trữ hình ảnh khiêu dâm giả mạo, cô phát hiện hơn 415.000 trang đã được tải lên trong năm nay, thu hút gần 90 triệu lượt xem.
Các video khiêu dâm do AI tạo ra cũng bùng nổ trên web. Sau khi lùng sục 40 trang web phổ biến nhất để tìm video giả, Oh nhận thấy hơn 143.000 video đã được thêm vào năm 2023 – một con số vượt qua tất cả video mới từ năm 2016 đến năm 2022. Các video giả mạo đã nhận được hơn 4,2 tỷ lượt xem, Oh nhận thấy.
Cục Điều tra Liên bang đã cảnh báo vào tháng 6 về sự gia tăng tống tiền tình dục từ những kẻ lừa đảo đòi tiền hoặc ảnh để đổi lấy việc không phát tán hình ảnh khiêu dâm. Mặc dù không rõ bao nhiêu phần trăm trong số những hình ảnh này được tạo ra bởi AI, nhưng thực tế hoạt động này đang được mở rộng. FBI nói với The Post: Tính đến tháng 9, hơn 26.800 người đã trở thành nạn nhân của các chiến dịch “tống tiền”, tăng 149% so với năm 2019.
‘Bạn không an toàn khi là phụ nữ’
Vào tháng 5, một người đăng trên một diễn đàn khiêu dâm nổi tiếng đã bắt đầu một chủ đề có tên “Tôi có thể giả mạo tình cảm của bạn”. Ý tưởng rất đơn giản: “Gửi cho tôi bất cứ ai bạn muốn xem khỏa thân và tôi có thể giả mạo họ” bằng cách sử dụng AI, người điều hành viết.
Chỉ trong vòng vài giờ, những bức ảnh về phụ nữ tràn ngập. “Cô gái này có thể làm được không? không phải là người nổi tiếng hay người có ảnh hưởng,” một người đăng hỏi. “Đồng nghiệp của tôi và hàng xóm của tôi?” một cái khác được thêm vào.
Vài phút sau khi có yêu cầu, một phiên bản khỏa thân của hình ảnh sẽ xuất hiện trên chuỗi. “Cảm ơn rất nhiều anh bạn, nó thật hoàn hảo,” một người dùng viết.
Người nổi tiếng là mục tiêu phổ biến của những người tạo nội dung khiêu dâm giả nhằm mục đích tận dụng sở thích tìm kiếm ảnh khỏa thân của các diễn viên nổi tiếng. Nhưng các trang web có hình người nổi tiếng có thể dẫn đến sự gia tăng các kiểu ảnh khoả thân khác. Các trang web này thường bao gồm nội dung “nghiệp dư” từ những cá nhân không xác định và lưu trữ quảng cáo tiếp thị các công cụ tạo nội dung khiêu dâm bằng AI.
Google có các chính sách nhằm ngăn chặn các hình ảnh khiêu dâm vô căn cứ xuất hiện trong kết quả tìm kiếm, nhưng các biện pháp bảo vệ của Google đối với các hình ảnh giả mạo không mạnh mẽ bằng. Nội dung khiêu dâm deepfake và các công cụ làm cho nó hiển thị nổi bật trên các công cụ tìm kiếm của công ty, ngay cả khi không tìm kiếm cụ thể nội dung do AI tạo ra. Oh đã ghi lại hơn chục ví dụ trong ảnh chụp màn hình, được The Post xác nhận độc lập.
Ned Adriance, phát ngôn viên của Google, cho biết trong một tuyên bố rằng công ty đang “tích cực làm việc để mang lại nhiều biện pháp bảo vệ hơn cho tìm kiếm” và công ty cho phép người dùng yêu cầu xóa nội dung khiêu dâm giả mạo không tự nguyện.
Ông cho biết, Google đang trong quá trình “xây dựng các biện pháp bảo vệ mở rộng hơn” để không yêu cầu nạn nhân phải yêu cầu gỡ bỏ nội dung một cách riêng lẻ.
Li, thuộc Đại học San Francisco, cho biết rất khó để trừng phạt những người tạo ra nội dung này. Mục 230 trong Đạo luật Khuôn phép trong Truyền thông bảo vệ các công ty truyền thông xã hội khỏi trách nhiệm pháp lý đối với nội dung đăng trên trang web của họ, để lại ít gánh nặng cho các trang web đối với hình ảnh của cảnh sát.
Nạn nhân có thể yêu cầu các công ty xóa ảnh và video giống họ. Nhưng vì AI lấy từ vô số hình ảnh trong tập dữ liệu để tạo ra một bức ảnh giả, nên nạn nhân khó khẳng định nội dung chỉ bắt nguồn từ chân dung của họ, Li nói.
“Có lẽ bạn vẫn có thể nói: ‘Đó là vi phạm bản quyền, rõ ràng là họ đã lấy bức ảnh gốc có bản quyền của tôi rồi chỉ thêm một chút vào đó'”, Li nói. “Nhưng đối với những bức ảnh giả sâu sắc… thì không rõ lắm… những bức ảnh gốc là gì.”
Trong trường hợp không có luật liên bang, ít nhất chín tiểu bang – bao gồm California, Texas và Virginia – đã thông qua luật nhắm mục tiêu vào deepfake. Nhưng những luật này có phạm vi khác nhau: Ở một số bang, nạn nhân có thể buộc tội hình sự, trong khi những luật khác chỉ cho phép khởi kiện dân sự – mặc dù khó có thể xác định rõ ai sẽ kiện.
Sam Gregory, giám đốc điều hành của tổ chức vận động nhân quyền công nghệ Witness cho biết, việc thúc đẩy quản lý các hình ảnh và video do AI tạo ra thường nhằm ngăn chặn việc phát tán rộng rãi, giải quyết những lo ngại về can thiệp bầu cử.
Nhưng những quy tắc này không có tác dụng mấy đối với phim khiêu dâm deepfake, nơi hình ảnh được chia sẻ trong các nhóm nhỏ có thể tàn phá cuộc sống của một người, Gregory nói thêm.
Belle, người có ảnh hưởng trên YouTube, vẫn không chắc có bao nhiêu bức ảnh deepfake về cô được công khai và cho biết cần có những quy định mạnh mẽ hơn để giải quyết trải nghiệm của cô.
“Là phụ nữ, bạn không an toàn,” cô nói.
theo WashingtonPost
Nguồn: https://vanhoadulich.edu.vn
Danh mục: Công Nghệ