Phim khiêu dâm giả

Từ EverybodyWiki Bios & Wiki

Lỗi kịch bản: Không tìm thấy mô đun “Unsubst”. Phim khiêu dâm giả là loại phim khiêu dâm không có thật được tạo ra từ công nghệ vi tính, chúng tổng hợp ra nội dung khiêu dâm không đúng thực tế bằng việc kết hợp hình ảnh trong một video có sẵn của một diễn viên khiêu dâm với một người khác. Người được sử dụng gương mặt để tích hợp vào phim thường là các nghệ sĩ như ca sĩ, diễn viên, và bao gồm các chính trị gia,...nhằm nhiều mục đích khác nhau, trong đó có trả thù khiêu dâm.

Nền tảng[sửa]

Phim khiêu dâm giả là một phần của hình thức phim giả tạo trên nền tảng công nghệ được gọi là Deepfake.[1] Chúng được tạo ra bằng cách kết hợp, chồng lấn hình ảnh sẵn có lên trên một video khác, kỹ thuật này được gọi là "mạng đối nghịch chung" (GAN).[2] Từ đó, tạo ra một video giả tạo không hề xảy ra trong thực tế, nhằm mô tả một người nào đó mà kẻ tạo ra như một mục tiêu tấn công xúc phạm. Đối với loại video giả này thì hành động xúc phạm chỉ liên quan đến hoạt động tình dục. Công nghệ deepfakes cũng được sử dụng phổ biến để tạo ra các video khiêu dâm người nổi tiếng giả hoặc trả thù khiêu dâm.[3]

Có các thể loại video giả theo hình thức khác. Như việc tạo ra các video phát ngôn của các chính trị gia với động cơ chính trị bẩn thỉu. Deepfakes cũng có thể được sử dụng với mục đích khác như tạo tin tức giả và những trò lừa đảo độc ác khác.[4][5]

Phần mềm Deepfake[sửa]

Vào tháng 1 năm 2018, một ứng dụng máy tính để bàn có tên FakeApp đã được ra mắt. Ứng dụng cho phép người dùng dễ dàng tạo và chia sẻ video với khuôn mặt được hoán đổi. Ứng dụng sử dụng mạng thần kinh nhân tạo và sức mạnh của bộ xử lý đồ họa và 3 đến 4 Gigabyte dung lượng lưu trữ để tạo video giả. Để biết thông tin chi tiết, chương trình cần rất nhiều tài liệu trực quan từ người được chèn để tìm hiểu các khía cạnh hình ảnh phải được trao đổi, sử dụng thuật toán học sâu dựa trên các chuỗi và hình ảnh video.

Phần mềm sử dụng AI-Framework TensorFlow của Google là một trong số những thứ khác đã được sử dụng cho chương trình DeepDream. Người nổi tiếng là mục tiêu chính của các video giả mạo như vậy, nhưng một số người khác cũng bị ảnh hưởng.[6][7][8] Vào tháng 8 năm 2018, các nhà nghiên cứu tại Đại học California tại Berkeley đã xuất bản một bài báo giới thiệu một ứng dụng nhảy giả có thể tạo ấn tượng về khả năng nhảy thuần thục khi sử dụng AI.[9][10]

Ngoài ra còn có các lựa chọn thay thế mã nguồn mở cho chương trình FakeApp ban đầu, như DeepFaceLab,[11] FaceSwap (hiện lưu trữ trên GitHub)[12] FaceSwap (hiện được lưu trữ trên GitHub)[13] và myFakeApp (hiện được lưu trữ trên Bitbucket).[14][15]

Nội dung khiêu dâm[sửa]

Deepfake nổi lên trên Internet vào năm 2017, đặc biệt trên Reddit,[16] và đã bị cấm bởi các website: Reddit, Twitter và Pornhub.[17][18][19] Vào mùa thu năm 2017, một người dùng Reddit ẩn danh dưới bút danh "deepfakes" đã đăng một số video khiêu dâm trên Internet. Nạn nhân đầu tiên thu hút sự chú ý của Deepfake là Daisy Ridley. Sau đó nạn nhân gia tăng gồm những người nổi tiếng như Emma Watson, Katy Perry, Taylor Swift hay Scarlett Johansson. Những cảnh này không có thật, được tạo ra bằng trí tuệ nhân tạo. Họ đã phải cố gắng giải thích với truyền thông.

Theo thời gian, công nghệ video giả mạo ngày càng cải tiến, khiến việc phân biệt nội dung giả mạo với nội dung thật ngày càng khó khăn. Hình ảnh và video phim của những người nổi tiếng có sẵn trực tuyến đã được sử dụng làm dữ liệu nền cho các video giả. Hiện tượng deepfake được báo cáo lần đầu tiên vào tháng 12 năm 2017 trong phần Kỹ thuật và khoa học của tạp chí Vice, dẫn đến việc báo cáo rộng rãi trên các phương tiện truyền thông khác.[20][21]

Scarlett Johansson, một nạn nhân thường xuyên của phim khiêu dâm Deepfake, đã nói công khai về chủ đề này với The Washington Post vào tháng 12 năm 2018. Trong một tuyên bố, cô bày tỏ lo ngại về hiện tượng này, mô tả internet là một "con sâu đục thân lớn của bóng tối đã ăn chính nó". Tuy nhiên, cô cũng tuyên bố rằng cô sẽ không cố gắng xóa bất kỳ tác phẩm bị làm giả nào của mình, vì cô tin rằng chúng không ảnh hưởng đến hình ảnh công khai thực tế của cô, cũng như luật pháp khác nhau giữa các quốc gia và bản chất của văn hóa internet khiến mọi nỗ lực xóa bỏ các tác phẩm giả tạo này là "một nguyên nhân đã mất"; nhưng những người nổi tiếng khác thì phải đối mặt thường xuyên với trả thù khiêu dâm.[22]

Tại Vương quốc Anh, các nhà sản xuất phim này có thể bị truy tố vì tội quấy rối, nhưng có những lời kêu gọi biến tội này thành một tội ác cụ thể;[23] tại Hoa Kỳ, nơi mà các vấn nạn rất đa dạng như đánh cắp nhận dạng, quấy rối qua mạng, và trả thù khiêu dâm là thường xuyên, khái niệm về một đạo luật toàn diện hơn cũng đã được thảo luận.[24]

Phản ứng xã hội[sửa]

Một số trang web, chẳng hạn như Twitter và Gfycat, tuyên bố rằng họ sẽ xóa nội dung deepfake và chặn các nhà xuất bản của nó. Trước đây, nền tảng trò chuyện Discord đã chặn một kênh trò chuyện bằng các video khiêu dâm giả mạo người nổi tiếng. Trang web khiêu dâm Pornhub cũng có kế hoạch chặn nội dung đó; tuy nhiên, đã có báo cáo rằng trang web đã không được thi hành lệnh cấm.[25][26] Tại Reddit, tình hình ban đầu vẫn chưa rõ ràng cho đến khi subreddit bị đình chỉ vào ngày 7 tháng 2 năm 2018 do vi phạm chính sách của "nội dung khiêu dâm không tự nguyện".[21][27][28][29] Vào tháng 9 năm 2018, Google đã thêm "hình ảnh khiêu dâm tổng hợp không tự nguyện vào danh sách cấm của mình, cho phép bất cứ ai yêu cầu khối kết quả hiển thị ảnh khỏa thân giả của họ.[30]

Xem thêm[sửa]

Tham khảo[sửa]

  1. Lỗi kịch bản: Không tìm thấy mô đun “Citation/CS1”.
  2. Lỗi kịch bản: Không tìm thấy mô đun “Citation/CS1”.
  3. Lỗi kịch bản: Không tìm thấy mô đun “Citation/CS1”.
  4. Lỗi kịch bản: Không tìm thấy mô đun “Citation/CS1”.
  5. Lỗi kịch bản: Không tìm thấy mô đun “Citation/CS1”.
  6. Lỗi kịch bản: Không tìm thấy mô đun “Citation/CS1”.
  7. Lỗi kịch bản: Không tìm thấy mô đun “Citation/CS1”.
  8. Lỗi kịch bản: Không tìm thấy mô đun “Citation/CS1”.
  9. Lỗi kịch bản: Không tìm thấy mô đun “Citation/CS1”.
  10. Lỗi kịch bản: Không tìm thấy mô đun “Citation/CS1”.
  11. https://github.com/iperov/DeepFaceLab
  12. https://github.com/deepfakes/faceswap#manifesto
  13. https://github.com/deepfakes/faceswap#manifesto
  14. https://bitbucket.org/radeksissues/myfakeapp/src
  15. https://www.duo.uio.no/bitstream/handle/10852/66387/Master-s-thesis-Tormod-Dag-Fikse.pdf
  16. Lỗi kịch bản: Không tìm thấy mô đun “Citation/CS1”.
  17. Lỗi kịch bản: Không tìm thấy mô đun “Citation/CS1”.
  18. Lỗi kịch bản: Không tìm thấy mô đun “Citation/CS1”.
  19. Lỗi kịch bản: Không tìm thấy mô đun “Citation/CS1”.
  20. Lỗi kịch bản: Không tìm thấy mô đun “Citation/CS1”.
  21. 21,0 21,1 Lỗi kịch bản: Không tìm thấy mô đun “Citation/CS1”.
  22. https://www.washingtonpost.com/technology/2018/12/31/scarlett-johansson-fake-ai-generated-sex-videos-nothing-can-stop-someone-cutting-pasting-my-image
  23. Call for upskirting bill to include 'deepfake' pornography ban The Guardian
  24. Lỗi kịch bản: Không tìm thấy mô đun “Citation/CS1”.
  25. Lỗi kịch bản: Không tìm thấy mô đun “Citation/CS1”.
  26. Lỗi kịch bản: Không tìm thấy mô đun “Citation/CS1”.
  27. Lỗi kịch bản: Không tìm thấy mô đun “Citation/CS1”.
  28. Lỗi kịch bản: Không tìm thấy mô đun “Citation/CS1”.
  29. Lỗi kịch bản: Không tìm thấy mô đun “Citation/CS1”.
  30. Lỗi kịch bản: Không tìm thấy mô đun “Citation/CS1”.

Lỗi Lua trong package.lua tại dòng 80: module 'Mô đun:Navbar' not found.


This article "Phim khiêu dâm giả" is from Wikipedia. The list of its authors can be seen in its historical and/or the page Edithistory:Phim khiêu dâm giả. Articles copied from Draft Namespace on Wikipedia could be seen on the Draft Namespace of Wikipedia and not main one.