Deepfake là công nghệ sử dụng trí tuệ tự tạo (AI) để đưa hình ảnh, tiếng nói của một bạn ghép vào video của người khác.

Bạn đang xem: Thuật ngữ deepfake chỉ điều gì

*
Ứng dụng ZAO hoán đổi gương mặt bạn với diễn viên trong những video nổi tiếng

Với đà phát triển của công nghệ, việc khiến cho những clip giả như trên càng ngày càng tinh vi khiến cho người ta không tách biệt được đâu là thật, đâu là giả, từ đó sẽ gây nên những hiểm họa khó lường.

* Deepfake là gì?

Deepfake là thuật ngữ ghép từ chữ deep-learning nghĩa là học tập sâu với fake là giả. Deep-learning là hướng nghiên cứu và phân tích trong AI, góp máy bốn duy giống tín đồ một cách thâm thúy hơn. Technology deepfake sẽ tích lũy hình ảnh khuôn mặt của một đối tượng, sau đó thay nắm khuôn phương diện này vào khía cạnh của một bạn khác trong video. Đối với các tập tin âm thanh, deepfake sử dụng phiên bản ghi âm tiếng nói của một người thực để huấn luyện laptop nói chuyện như nhau người ấy.

Một ví dụ rõ ràng và hơi thông dụng về deepfake là áp dụng ZAO của Trung Quốc.

ZAO là ứng dụng trọn vẹn miễn phí, ra đời đầu mon 9-2019. Bạn chỉ cần đưa lên một tấm ảnh chân dung của chính mình và chọn trong thư viện các video của ZAO, tất cả trích đoạn các bộ phim truyện điện hình ảnh hay show truyền hình danh tiếng là bạn sẽ trở thành diễn viên bao gồm trong các đoạn clip ấy.

* Deepfake dùng để gia công gì?

Nói chung, deepfake dùng để tạo ra những đoạn clip giả dựa trên những tài liệu thật: nội dung video là thật, nhưng mà hình ảnh và tiếng nói của một dân tộc của nhân thứ trong đoạn phim là giả.

Trong lấy ví dụ như trên, deepfake là công cụ giải trí thú vị dẫu vậy nó còn tồn tại nhiều tác dụng lớn hơn. Phụ thuộc vào mục đích, đoạn clip tạo bởi deepfake bao gồm thể hữu dụng hoặc gồm hại.

Mục đích tốt: ví dụ như một MC trên TV do bị bệnh mà mất giọng trợ thời thời, dùng deepfake để tạm thời sửa chữa thay thế MC ấy trong thời hạn bệnh. Hoặc một bộ phim thực hiện nay sắp dứt nhưng chẳng may một diễn viên qua đời, deepfake sẽ tạo nên hình diễn viên ấy để tiến hành phần còn lại của cỗ phim.

Hay vào các đoạn phim mang tính giáo dục, deepfake có thể dùng để sản xuất hình cùng tiếng cho một trong những nhân vật lịch sử dựa theo hình hình ảnh và tiếng nói còn lưu lại để minh họa được sinh động hơn.

Mục đích xấu: Điều không mong muốn là hiện thời deepfake được thực hiện cho mục đích xấu khá nhiều. Hai trong những những mục đích xấu vượt trội được áp dụng nhiều nhất hiện nay là tuyên truyền rơi lệch về chủ yếu trị và hạ nhục bằng phim ảnh khiêu dâm.

Người ta hoàn toàn có thể tạo video clip deepfake quẹt xấu đối phương chính trị của mình, như tế bào tả ứng viên tổng thống đã quấy rối con trẻ em, hoặc một cảnh sát trưởng đã xúi giục nhân viên thực hiện hành vi bạo lực với người dân tộc bản địa thiểu số…

Việc sử dụng deepfake để ghép mặt nhân vật bạn nữ vào những clip khiêu dâm, khỏa thân đã gây ảnh hưởng xấu mang đến danh dự cùng phẩm giá bán của họ. Những video này có điểm sáng là viral rất nhanh cho dù không biệt lập thật giả.

Xem thêm: Giáp Thân Khai Bút Ngày Nào Để Cả Năm May Mắn? Khai Bút Đầu Năm 2023 Nên Viết Gì

* Deepfake là mối quan ngại của tất cả thế giới

Về lý thuyết, một video deepfake càng tương đương thật nếu gồm càng những hình hình ảnh biểu cảm khuôn mặt và môi của nhân trang bị để ứng dụng ấy mô bỏng và gửi vào video. Vị thế, một số chuyên gia khuyên rằng phải hạn chế share các hình hình ảnh lên mạng thôn hội, phần lớn nơi bất kỳ ai cũng có thể thuận tiện tìm thấy nguồn dữ liệu cho deepfake.

Thế nhưng liệu các bạn có làm cho được không? rộng nữa, với đà phạt triển công nghệ này, như ta thấy với ZAO, chỉ cần một ảnh chân dung là hoàn toàn có thể làm được clip deepfake rồi!

Trung tâm nghiên cứu chiến lược và quốc tế (CSIS) của Mỹ xếp các đoạn phim được có tác dụng giả dựa trên technology deepfake vào một trong những 5 nguy cơ tiềm ẩn gây mất bình an toàn ước năm 2019.

Các nền tảng social nhiều người tiêu dùng như Facebook, YouTube chính là nơi phạt tán video clip deepfake kết quả nhất. Nếu đoạn clip deepfake đó tạo nên nên ảnh hưởng xấu thì chính những nền tảng này là “tội đồ” bự nhất. Cũng chính vì vậy, chúng ta có trọng trách phải phát chỉ ra các đoạn clip này trước lúc chúng được xuất bạn dạng trên gốc rễ của mình, như phát hiện tin đưa (fake news). Tiếc nuối thay, việc phát hiện nay này là cực kì khó!

Bộ Quốc phòng Mỹ, Google với Facebook vẫn tài trợ và hỗ trợ dữ liệu để những nhà phân tích tìm ra chiến thuật phát hiện nay deepfake hiệu quả. Năm 2020, Facebook với sự cung ứng lớn từ Microsoft và những trường đại học danh giờ đã thực hiện cuộc thi Deepfake Detection Challenge (DFDC), với ngôn từ phát triển công nghệ phát hiện những video clip deepfake. Tổng phần thưởng cho cuộc thi này lên đến mức 10 triệu USD.

* phương án mới của Facebook nhằm phát hiện deepfake

Deepfake là một trong vấn đề lớn trên Facebook, bởi vì đó đó là một giữa những công ty đầu tư mạnh độc nhất cho việc nghiên cứu công nghệ này để bảo đảm chống lại các mối đe dọa trong tương lai. Công trình tiên tiến nhất của họ là sự việc hợp tác với các nhà nghiên cứu từ Đại học tập Bang Michigan (MSU), làm cho một cách thức ứng dụng chuyên môn nghịch đảo (reverse-engineering) nhằm phát hiện nay deepfake: so sánh hình ảnh do AI tạo ra để tiết lộ các điểm sáng nhận dạng của quy mô học sản phẩm đã tạo nên nó.

*
Hình hình ảnh minh họa phương pháp tạo một đoạn clip deepfake tất cả hình hình ảnh cựu Tổng thống Barack Obama. Video giả này vô cùng nổi tiếng, nó biểu lộ ông Obama đã phát biểu những vấn đề về dịch vụ công, mà lại thực sự ông chưa lúc nào nói. Ảnh: AP

Công việc này góp Facebook theo dõi phần nhiều kẻ xấu phân phát tán các trò lừa bịp trên gốc rễ của mình. Đó có thể là những tin tức tuyên truyền lệch lạc hoặc gần như nội dung khiêu dâm không có sự đồng thuận. Hiện nay tại, quá trình vẫn sẽ trong giai đoạn nghiên cứu và phân tích và chưa sẵn sàng chuẩn bị triển khai.

Mỗi deepfake được tạo nên bởi một quy mô AI như thế nào đó. Các nghiên cứu và phân tích trước trên đây trong nghành này rất có thể xác định quy mô AI nào trong số những quy mô đã biết để tạo ra deepfake, nhưng công trình của Facebook sẽ tiến một bước xa hơn bằng phương pháp xác định các đặc điểm kiến trúc của các quy mô chưa biết.

Trưởng nhóm phân tích của Facebook, Tal Hassner cho thấy thêm xác định các đặc điểm của những mô hình chưa biết là cực kỳ quan trọng, cũng chính vì phần mềm deepfake cực kì dễ tùy chỉnh. Điều này còn có thể chất nhận được những kẻ xấu bít giấu vết vết của họ nếu những nhà khảo sát đang cố gắng theo dõi buổi giao lưu của họ.

Hassner nói: “Hãy giả sử một kẻ xấu đang tạo ra không ít deepfakes khác nhau và cài chúng lên những nền tảng khác nhau cho những người dùng khác nhau. Nếu đó là một mô hình AI mới chưa từng thấy trước đây, thì tất cả rất không nhiều điều mà chúng ta có thể nói về nó trong quá khứ. Bây giờ, bạn cũng có thể nói: Hãy quan sát xem, bức ảnh được download lên sinh hoạt đây, bức hình ảnh được thiết lập lên ngơi nghỉ đó, tất cả chúng đều tới từ cùng một mẫu. Với nếu công ty chúng tôi có thể thu giữ laptop hoặc laptop (được thực hiện để tạo nội dung), chúng tôi sẽ rất có thể nói: Đây là thủ phạm”.

Hassner giải thích phương thức này bằng cách so sánh với việc lấy lốt vân tay trong chuyên môn pháp y. Vệt vân tay ở đó là những mẫu sắc sảo nhưng độc đáo và khác biệt để lại trên từng hình ảnh do một thiết bị rõ ràng tạo ra vì chưng sự không tuyệt vời và hoàn hảo nhất trong quá trình sản xuất. Trong nhiếp hình ảnh kỹ thuật số, vệt vân tay được sử dụng để khẳng định loại máy ảnh kỹ thuật số được áp dụng để tạo nên hình ảnh.

* Phát hiện tại deepfake vẫn là trò chơi “mèo vờn chuột”

Điều quan trọng cần lưu ý là ngay cả những tác dụng hiện đại này cũng không đủ tin cậy. Trong hội thi phát hiện nay deepfake bởi Facebook tổ chức triển khai vào năm ngoái, thuật toán đoạt giải quán quân chỉ hoàn toàn có thể phát hiện nay 65,18% các video clip deepfake.

Một phần tại sao của điều đó là do nghành nghề dịch vụ AI đang cải tiến và phát triển quá nhanh, các kỹ thuật new được giới thiệu mỗi ngày. Bạn ta sử dụng AI để tạo nên deepfake, dùng công nghệ AI new hơn nhằm phát hiện tại deepfake, rồi lại dùng công nghệ AI mới hơn thế nữa để qua mặt những khí cụ phát hiện tại này.

Khi được đặt ra những câu hỏi liệu việc công bố thuật toán lấy lốt vân tay mới có dẫn đến việc sẽ có những deepfake qua phương diện các phương pháp này tuyệt không, Hassner đồng ý: “Tôi cho rằng như vậy. Đây là một trò nghịch mèo vờn chuột, và nó thường xuyên là trò chơi mèo vờn chuột.”