Hình ảnh, video deepfake đang trở thành một trào lưu hết sức nguy hiểm và xuất hiện ngày càng nhiều trên mạng hay các phương tiện truyền thông. Trước sự nổi lên mạnh mẽ của hiện tượng này, liệu có cách nào để phát hiện cũng như ngăn chặn tác hại từ nó hay không?
Lược dịch bài viết của tác giả Gavin Phillips, trang Makeuseof về cách để phát hiện các nguy cơ của công nghệ deepfake.
Video và hình ảnh xuất hiện mỗi ngày trong cuộc sống của con người, chúng có thể tồn tại ở bất cứ đâu từ TV, máy tính, smartphone đến các nền tảng trực tuyến như Youtube, Facebook… Tuy nhiên, một công nghệ có tên là deepfake với khả năng "bóp méo sự thật" đã xuất hiện khiến thế giới ngày càng mất niềm tin vào những video cũng như hình ảnh mà họ nhìn thấy. Nếu không may một ngày nào đó bạn hoặc người thân của mình trở thành nạn nhân của deepfake thì phải làm như thế nào?
Hiện nay, Internet đã đưa nhân loại "xích" lại gần nhau, bạn dễ dàng biết được thông tin, hình ảnh, video gần như của bất cứ ai thông qua vài thao tác đơn giản trên các trang mạng xã hội. Bên cạnh các khả năng tuyệt vời mà Internet mang lại thì nó còn tồn tại không ít những rủi ro bảo mật. Việc tin tặc đánh cắp dữ liệu cá nhân người dùng hiện không còn là một chuyện quá xa lạ, sự kiện gần đây nhất là vài tháng trước khi có hơn nửa triệu thông tin đăng nhập của người dùng Zoom bị tin tặc phát tán trên các web đen dưới nhiều hình thức.
Đặc biệt, sự nổi lên của deepfake trong vài năm trở lại đây đã khiến vấn đề về hình ảnh, video trên mạng phức tạp hơn bao giờ hết. Nghiêm trọng hơn khi công nghệ này bây giờ cũng không còn là một ứng dụng quá khó để sử dụng cũng như có giá thành ngày một rẻ hơn.
Sự nổi lên của deepfake hiến vấn đề về hình ảnh, video trên mạng phức tạp hơn bao giờ hết.
Deepfake là một công nghệ cho phép người dùng có thể chỉnh sửa khuôn mặt, khẩu hình của nhân vật trong video hoặc một bức hình nào đó bằng AI và dùng một vài thuật toán mã nguồn mở để xử lý.
Nếu chỉ dùng deepfake với những mục đích thông thường như trêu ghẹo bạn bè hay người thân thì nó là một công nghệ hoàn toàn vô hại. Nhưng chúng ta đang bàn đến những trường hợp tệ nhất, deepfake đã bị dùng sai cách khi đã trở thành một công cụ phần lớn để phục vụ cho những hành động xấu xa như tạo ra video khiêu dâm người nổi tiếng, trả thù khiêu dâm, tin tức giả mạo…
Thuật ngữ này là từ ghép của "deep learning" và "fake" (tạm dịch: học sâu và giả mạo). Sở dĩ gọi như vậy do đây là hai yếu tố đóng vai trò chủ chốt trong cách thức hoạt động của deepfake. Trong khi từ "fake" không quá khó để hiểu được khi dùng để ám hiệu mục tiêu của deepfake là tạo ra những bức ảnh giả mạo và khác với ban đầu thì "deep learning" lại rắc rối hơn. Nó liên quan đến quá trình "học" của trí tuệ nhân tạo.
Thuật ngữ Deepfake là từ ghép của "deep learning" và "fake" .
Cụ thể, mọi sản phẩm sử dụng trí tuệ nhân tạo đều trải qua hai bước chính: nạp dữ liệu đầu vào, sau đó dựng lên mô hình và lựa chọn một thuật toán để liên tục xử lý, học từ các mô hình đó. Deepfake cũng không phải ngoại lệ, dữ liệu đầu vào của nó chính là những video, hình ảnh, các thuật toán mã nguồn mở TensorFlow hoặc Keras đều đã có sẵn trên mạng. Sau một thời gian "học", AI trên deepfake dễ dàng thực hiện tác vụ ghép khuôn mặt với độ giống cực cao.
Thường ngày, chúng ta có thể bắt gặp vô số hình ảnh, video khi truy cập vào internet, đặc biệt là ở các trang mạng xã hội. Tôi cho rằng phần lớn những bức ảnh hay video này đều đã được chỉnh sửa khi mà ở thời đại bây giờ, các nền tảng như Facebook, Instagram… chẳng khác gì bộ mặt của mỗi người, do đó, hầu như ai cũng muốn những gì mình đăng lên đều phải đẹp. Nhờ sự xuất hiện phổ biến của công cụ hình ảnh từ cơ bản như các ứng dụng trên smartphone đến cao cấp như Photoshop, người dùng dễ dàng điều chỉnh hình ảnh hay video theo ý muốn, thậm chí nhiều sản phẩm "photoshop" còn chân thực đến mức không thể nhận ra được.
Tuy nhiên, deepfake nằm ở một đẳng cấp hoàn toàn khác, không nói quá khi gọi đây là bậc thầy trong việc tạo ra ảnh và video giả mạo.
Một trong những video sử dụng deepfake gây chấn động cho người xem toàn thế giới là đoạn video giả mạo giọng nói, hình ảnh của cựu tổng thống Obama. Theo đó, người ngồi trước camera không khác gì ông Obama nhưng lại nói theo cách nói của người khác, đặc biệt, khúc cuối video vị cựu tổng thống này đã nói những lời y như diễn viên, đạo diễn nối tiếng người Mỹ, Jordan Peele độc thoại trong một video của mình.
Đoạn video giả mạo hình ảnh, giọng nói ông Obama.
Mặc dù video này không có gì độc hại nhưng nó dấy lên một nỗi sợ về hậu quả mà công nghệ deepfake cũng như AI mang lại. Rào cản đối với việc sử dụng deepfake ban đầu khá cao nhưng hiện tại nó không còn là thứ khoa học quá cao siêu khi mà dữ liệu và thuật toán đều có sẵn trên mạng. Thêm vào đó, quá trình học và xử lý cũng không cần đến các siêu máy tính, thay vào đó, bộ PC với một card đồ họa phổ thông đã dễ dàng thực hiện quá trình trên trong vòng vài giờ.
Tận dụng những khả năng mà deepfake mang lại, những kẻ xấu đã dùng nó để trục lợi cá nhân bằng cách tạo ra không ít các sản phẩm phim khiêu dâm bằng cách ghép mặt của người nổi tiếng như Emma Watson, Taylor Swift, Scarlett Johansson… Mỗi bộ phim "người lớn" diễn ra với kịch bản quen thuộc nhưng chỉ khác mỗi gương mặt diễn viên này đã thu hút tới hàng chục triệu lượt xem trên các trang phim khiêu dâm sau một hồi đăng tải. Song cũng không có một website nào có động thái gỡ bỏ hay tải lại video gốc trước đó.
Mỹ nhân của Marvel là một trong những nạn nhân của deepfake.
Giorgio Patrini, Giám đốc điều hành kiêm tại Giám đốc nghiên cứu tại Sensity, một công ty phân tích và phát hiện deepfake cho biết: "Những video khiêu dâm người nổi tiếng sẽ vẫn còn đó nếu không có một lý do chính đáng hay ràng buộc pháp lý đối với các trang đăng tải. Và tiếp tục như vậy, các video cứ thế được tải lên mà không gặp bất cứ rào cản nào".
Không chỉ những nhân vật nổi tiếng mà ngay cả những người phụ nữ bình thường cũng trở thành nạn nhân của phim khiêu dâm. Một nghiên cứu của Sensity đã chỉ ra rằng deepfake chứa một bot hoạt động trên ứng dụng nhắn tin xã hội Telegram và chính nó là kẻ đã tạo ra hơn 100.000 ảnh khỏa thân trên deepfake. Trong đó phần lớn hình ảnh bị đánh cắp chủ yếu đều có nguồn gốc từ mạng xã hội.
Bot là sự bổ sung hoàn hảo cho công nghệ deepfake, ứng dụng này giúp những người dùng không có kiến thức gì về deepfake vẫn có thể dễ dàng sử dụng nó. Thay vào đó, người dùng chỉ cần làm một thao tác duy nhất là tải ảnh lên và bot sẽ tự động lo phần còn lại. Tuy nhiên, theo các nghiên cứu thì bot của deepfake dường như chỉ bật chế độ "active" với hình ảnh của phụ nữ hoặc người dùng đăng ký gói deepfake cao cấp (xử lý nhiều ảnh hơn, làm nét ảnh mờ).
Bot là sự bổ sung hoàn hảo cho công nghệ deepfake.
Công cụ bot của deepfake nhanh chóng gây nên một làn sóng phản đối gay gắt, mọi người lên án hành động đánh cắp hình ảnh từ Telegram này và cho rằng nó mang tính chất bóc lột, lạm dụng và vô nhân tính. Cuộc sống của những người phụ nữ rồi sẽ ra sao khi các khung hình đó bị phát tán lên mạng? Họ sẽ phải đối mặt với người thân, bạn bè, đồng nghiệp như thế nào? Chưa hết, kẻ xấu có thể tận dụng những tấm hình phát tán để uy hiếp và tống tiền gia đình người bị hại hay nghiêm trọng hơn họ sẽ trở thành nạn nhân trong các video khiêu dâm.
Có một uẩn khúc vẫn chưa có lời giải đáp liên quan tới việc vì sao một con bot với bản chất chỉ thực hiện các tác vụ đơn giản và có cấu trúc lặp đi lặp lại như vậy lại có thể vượt qua được hệ thống kiên cố của Telegram. Đây được cho là điều gần như không thể khi dịch vụ nhắn tin này rất an toàn khi có độ bảo mật cao cũng như có khả năng ngăn các bot khiêu dâm xâm nhập vào hệ thống.
Từ khi video giả mạo hình ảnh, giọng nói của ông Obama tạo bởi công nghệ deepfake được đăng tải, thế giới ngày càng lo lắng hơn về việc một viễn cảnh tương tự như vậy sẽ xảy ra nhưng theo hướng tiêu cực hơn. Mỹ là một trong những cường quốc đứng đầu thế giới cho nên lời nói của tổng thống nước này hiển nhiên mệnh lệnh của ông có sức nặng rất lớn, nếu tội phạm deepfake dùng hình ảnh và lời nói của ông Obama để truyền đi thông điệp chiến tranh hay phản động, đó chắc chắn là một thảm kịch. Thậm chí, mọi việc còn có thể điên rồ hơn, độ nguy hiểm của deepfake trong tình huống này là rất cao.
Sự kiện video giả mạo ông Obama được đăng vào năm 2018 khiến nhiều người cảm thấy lo sợ về deepfake.
Giả sử một video deepfake giả mạo nội dung liên quan đến việc một tập đoàn lớn hay giám đốc điều hành ngân hàng nào đó tuyên bố thị trường chứng khoán đã sụp đổ. Với internet, chỉ trong tích tắc, tin tức chắc chắn sẽ lan rộng toàn cầu khiến nhiều người tự động bán hết số cổ phiếu của mình. Mọi nỗ lực ngăn chặn hay gỡ bỏ video này ngay lập tức phải nói là cực kỳ khó khăn vì nó được đăng công khai trên mạng. Đây là một trong rất nhiều những viễn cảnh tồi tệ mà deepfake gây ra cho chúng ta.
Không chỉ vậy, việc deepfake ngày càng rẻ và dần trở nên đơn giản để sử dụng kéo theo một khối lượng lớn video và hình ảnh giả mạo được tạo ra. Điều này khiến các thông điệp truyền đi không chỉ phức tạp mà còn khó lường hơn, có thể video nói về cùng một người, cùng một nội dung nhưng chúng được xây dựng bằng các tông màu, địa điểm, phong cách khác nhau…
Khi xem qua những video, hình ảnh deepfake, chúng ta mới thấy khả năng làm giả của công nghệ này tinh vi đến mức nào. Thậm chí dù đã được cảnh báo đó là một video, hình ảnh deepfake giả mạo, nhiều người xem xong còn hoài nghi và không tin là chúng đã qua chỉnh sửa. Công bằng mà nói, tôi nghĩ đa số chúng ta đều sẽ như vậy nếu không có dòng chữ "đây là dữ liệu deepfake giả mạo" đơn giản vì hình ảnh hay video cắt ghép deepfake trông giống thật đến mức không thể tưởng tượng được.
Công dụng "bóp méo sự thật" của deepfake tồn tại cả hai chiều hướng tích cực và tiêu cực, bên cạnh những tác hại do nó tạo ra, nếu biết dùng đúng cách thì chúng ta có thể tận dụng được trong rất nhiều tình huống. Cụ thể, nếu tội phạm bị bắt và có video ghi lại rõ ràng hành vi của hắn nhưng tên này lại nói: "đây là bằng chứng giả, video được tạo từ deepfake". Thay vì tiếp tục chất vấn, chúng ta hãy tạo ra luôn các video deepfake để tạo thêm bằng chứng khiến hắn không thể phủ nhận.
Khả năng làm giả của deepfake là cực kỳ tinh vi.
Từng có một vài trường hợp deepfake được ghi nhận là công cụ để tạo ra các dữ liệu chứa nội dung dẫn dắt cũng như lãnh đạo tư tưởng của người dân bằng cách giả mạo quan chức cấp cao. Theo thông tin mà các hồ sơ trên Linkedln và Twitter tiết lộ, loại video này phục vụ cho việc điều phối hoạt động trong những tổ chức chiến lược của chính phủ và nhân vật cấp cao ở đây không tồn tại mà được tạo ra bằng công nghệ deepfake.
Tuy nhiên, các nguồn tin uy tín cho biết rằng hành động giả mạo trên thực sự được áp dụng ở các mạng lưới của chính phủ, tập đoàn tình báo quốc gia… với mục đích thu thập thông tin, thực hiện hoạt động chính trị ngầm mà không bị tiết lộ danh tính. Dẫu vậy, nguy cơ deepfake sẽ xâm nhập và thâu tóm các video này vẫn khó lường trước được, chúng ta cần phải ngăn chặn nó từ thuở ban đầu.
Nguy cơ deepfake sẽ xâm nhập và thâu tóm các video vẫn khó lường trước được.
Trong xã hội, giao tiếp là một điều cần thiết và diễn ra thường xuyên với mức độ dày đặc mỗi ngày. Con người xây dựng mối quan hệ với nhau thông qua sự tin tưởng và bản tính trung thực của mình trong lời nói.
Đây chính là điểm yếu mà kẻ xấu có thể khai thác thông qua deepfake, chúng dễ dàng giả mạo lời nói của ai đó để lợi dụng niềm tin của người thân, bạn bè, đồng nghiệp của họ, từ đó, thực hiện vô số những hành vi tồi tệ như đánh cắp dữ liệu hình ảnh, video cá nhân, quấy rối tình dục, gây rạn nứt gia đình… Việc làm vô nhân tính như vậy đã hoàn toàn diễn ra và khiến không ít người phải tìm đến cái chết để giải thoát.
Việc các video, hình ảnh deepfake đang ngày càng trở nên tinh xảo và hoàn thiện hơn đã khiến cho khả năng nhận diện ra chúng trở nên rất thấp. Trong những ngày đầu tiên khi công nghệ này mới phát triển thì nó vẫn tồn tại một số điểm yếu như: hình ảnh mờ, video bị lỗi giọng nói và hiệu ứng… nhưng hiện giờ deepfake không còn đơn giản như vậy.
Mặc dù không có một cách cụ thể nào để phát hiện chính xác được deepfake, nhưng theo tôi nếu để ý đến 4 dấu hiện sau đây thì bạn vẫn có khả năng nhận biết video, hình ảnh deepfake.
Microsoft Video Authenticator là một công cụ phát hiện deepfake do Microsoft phát triển.
Hiện nay, không ít tập đoàn công nghệ lớn đã tham gia vào cuộc chiến với deepfake, hàng loạt các công cụ phát hiện, nền tảng chặn deepfake vĩnh viễn đã được ra đời.
Điển hình trong số đó phải kể đến Microsoft Video Authenticator, công cụ phát hiện deepfake do Microsoft phát triển có khả năng kiểm tra độ xác thực của dữ liệu video chỉ trong vòng vài giây. Các nền tảng mạng xã hội đã đưa ra tính năng chặn hoàn toàn mọi hình ảnh, video chỉnh sửa qua deepfake. Song Google cũng đang thử nghiệm một ứng dụng chống lại việc giả mạo âm thanh.