Bắt nguồn từ một người dùng Reddit có tên “deepfakes”, cái tên này đã mở đường cho công nghệ học sâu (deep learning), một mảng nhỏ của công nghệ học máy (machine learning) – sử dụng trí tuệ nhân tạo huấn luyện máy tính thực hiện một nhiệm vụ nào đó.
Công nghệ Deepfake là gì?
Đây là một từ ghép của “deep learning” (học sâu) và “fake” (giả mạo) trong tiếng Anh. Chính tên gọi này cũng đã phản ánh phần nào khả năng của Deepfake. Đó là kỹ thuật tổng hợp hình ảnh con người dựa trên trí tuệ nhân tạo.
Khả năng của Deepfake là tái tạo khuôn mặt người nhờ những hình ảnh đã được pixel hóa. Nhờ vậy, dữ liệu khuôn mặt của một người có thể được ghép sang hình ảnh và video của một người khác.
Các ứng dụng tạo ra deepfakes này sử dụng hai AI khác nhau hoạt động cùng nhau như một tự động mã hóa. Hai phần của mã tự động là bộ mã hóa / máy phát điện và bộ giải mã / phân biệt.
Các mã hoá quét một bộ sưu tập hình ảnh từ khuôn mặt giả – thường là một người nổi tiếng hoặc một khuôn mặt khác – và tạo ra những hình ảnh giả mới. Bộ mã hóa phát hiện ra các phần tiềm ẩn trên khuôn mặt của bạn (các đặc điểm cơ bản trên khuôn mặt mà bạn chia sẻ với hầu hết mọi người, chẳng hạn như vị trí của mắt, mũi và miệng) và tìm ra điểm nào giống nhau giữa của bạn "Face and the deepfake face".
Mặt gây hại của công nghệ DeepFake
Các ứng dụng ghép mặt vào video đang "làm mưa làm gió" trên mạng xã hội trở nên tiện dụng hơn bao giờ hết khi bạn chỉ cần chụp 1 tấm ảnh selfie thôi thì chúng cũng tối ưu thành một đoạn video với đủ các góc mặt.
Tuy nhiên, các ứng dụng thường sẽ yêu cầu quyền thu thập thông tin dữ liệu khuôn mặt của bạn. Một số công ty cung cấp ứng dụng thì khẳng định chỉ sử dụng dữ liệu để cải thiện ứng dụng và xoá trong một thời gian nhất định, nhưng dù gì cũng là một rủi ro bảo mật.
Các chuyên gia lo ngại công nghệ deepfake có thể tác động đến tình hình kinh doanh của công ty, phá hủy danh tiếng một người có ảnh hưởng đến công chúng, gây bất ổn chính trị, nhất là trong quá trình bầu cử. Sẽ thật tồi tệ nếu trên mạng bỗng dưng xuất hiện một video deepfake mô tả ứng cử viên tổng thống đang quấy rối trẻ em, hoặc một cảnh sát trưởng đang xúi giục nhân viên thực hiện hành vi bạo lực với người dân tộc thiểu số, hay những người lính có hành động tàn ác trong chiến tranh…
Những nhân vật có tiếng tăm như chính trị gia, nhà lãnh đạo doanh nghiệp rất dễ có nguy cơ bị tấn công bằng video giả mạo. Ngay cả những người phụ nữ bình thường cũng có thể bị người xấu dùng công nghệ này tạo ra những video khiêu dâm, khỏa thân giả mạo, gây ảnh hưởng xấu đến danh dự và phẩm giá của họ. Một khi video đã bị lan truyền trên Internet thì gần như không thể ngăn chặn nổi. Hơn nữa, rất khó để phân biệt tính thật giả của những nội dung này.
Những tác hại lớn của video giả mạo sử dụng deepfake như:
Làm hoen ố hình ảnh và phẩm giá của con người.
Bất cứ ai cũng có thể là nạn nhân của những video giả mạo, đặc biệt là phụ nữ, những người nổi tiếng, chính trị gia và những nhân vật tầm cỡ - nhóm đối tượng dễ bị lợi dụng.
Việc ngăn chặn những tin tức giả mạo và những tin đồn thất thiệt trong xã hội trở nên bất khả thi, nhất là khi thủ phạm cố tình và cố gắng bôi nhọ nhân cách của một cá nhân bằng cách tạo ra những nội dung giả mạo. Những kẻ có ý đồ xấu tạo ra các đoạn phim khiêu dâm mà nhân vật chính bị thay đổi hoặc hoán đổi bằng khuôn mặt của người nổi tiếng.
Những video giả mạo phát tán trên phương tiện truyền thông xã hội và các kênh trực tuyến khác có thể ảnh hưởng đến tình cảm và nhận thức của công chúng tại thời điểm diễn ra cuộc bầu cử chính quyền ở bất kỳ quốc gia nào hoặc bôi nhọ nhân cách cá nhân.
Vì năng lực kiểm chứng dạng video của cộng đồng chưa cao nên dễ khiến dưa luận chao đảo trong quá trình chuẩn bị bầu cử, hay bình chọn giải thưởng.
Tạo ra một xã hội thiếu niềm tin.
Tác động ngấm ngầm của video giả mạo trên các phương tiện truyền thông xã hội là tạo ra một xã hội thiếu niềm tin, mọi người khó có thể hoặc không còn bận tâm đến việc phân biệt sự thật và giả dối. Khi niềm tin của công chúng bị xói mòn, sự nghi ngờ về các sự kiện cụ thể càng nảy sinh.
Truyền thông xã hội là nền tảng chính dễ phát tán mạnh video giả mạo, gây hoang mang dư luận. Các chuyên gia cảnh báo rằng, phần mềm deepfake có thể bị biến thành một thứ vũ khí lợi hại để sản xuất thông tin sai lệch. Video giả mạo dễ dàng được tạo và chia sẻ nhanh chóng, cho phép đạt tới hàng triệu lượt xem chỉ trong vài giây.
Deepfake đặt ra một mối đe dọa lớn hơn tin giả thông thường bởi vì video giả mạo khó phát hiện hơn và người xem thường có xu hướng tin vào những gì họ được tận mắt thấy. Truyền thông xã hội hiện đang là nền tảng trực tuyến phổ biến, nhưng khi không thể kiểm soát được video giả mạo, niềm tin của người dùng sẽ bị đánh mất.
Lừa đảo, gây thiệt hại cho các cá nhân, tổ chức.
Khi công nghệ dễ tiếp cận hơn, các vụ lừa đảo dựa trên công nghệ AI ngày càng nở rộ. Giả giọng và gọi điện yêu cầu chuyển tiền vào một tài khoản ngân hàng là một trường hợp deepfake dễ dàng thực hiện. Vụ lừa đảo doanh nghiệp đầu tiên xảy ra với một giám đốc điều hành một công ty năng lượng có trụ sở ở Anh.
Anh này đã tin rằng mình đang nói chuyện điện thoại với giám đốc điều hành của công ty mẹ đóng trụ sở tại Đức và thực hiện lệnh chuyển tiền cho một nhà cung cấp ở Hungary. Hoá ra, toàn bộ cuộc thảo luận là một trò lừa đảo giọng nói do AI tạo ra(1).
Từ những âm thanh, video giả, người ta cũng dễ tạo ra bằng chứng giả mạo có thể gây nhầm lẫn, làm phức tạp hoá quá trình phán quyết của các toà án, nhất là trong các cuộc chiến giành quyền nuôi con hoặc các vụ việc về kinh tế.
Ngoài ra, việc bảo mật thông tin và hình ảnh cá nhân lỏng lẻo là kẽ hở để deepfake có thể bắt chước dữ liệu sinh trắc và có khả năng đánh lừa các hệ thống dựa vào nhận dạng khuôn mặt, giọng nói, dáng đi. Nhìn chung, tiềm năng xảy ra lừa đảo là rõ ràng.
Mặt có lợi của Deepfake
Cho dù deepfake được sử dụng cho mục đích tốt hay xấu, một điều rõ ràng là: công nghệ deepfake hiện đang mở đường cho một lĩnh vực công việc mới nổi. Ngày càng có nhiều người và tổ chức, chẳng hạn như các công ty truyền thông tin tức, đang tranh giành nhau để phân biệt đâu là thật và đâu là giả - điều này đã dẫn đến một số công ty khởi nghiệp mới và vô số hàng trăm công việc mới, tất cả đều sẵn sàng vượt qua thử thách.
Giorgio Patrini, Giám đốc điều hành và Nhà khoa học trưởng tại Sensity, một nền tảng phát hiện deepfake được thành lập cho biết: “Deepfakes đã bắt đầu đặt ra một mối đe dọa cụ thể mới đối với sinh trắc học khuôn mặt, vì bây giờ bất kỳ ai cũng có thể xuất hiện trước máy ảnh. Patrini cho biết vào năm 2018. Các công ty phát hiện như Sensity, Patrini cho biết, đã được các công ty trong ngành tài chính và bảo hiểm ủy quyền để phát hiện gian lận tài chính — và trong khi gian lận tài chính bằng công nghệ deepfake tương đối hiếm vào năm 2021, Patrini cho biết nó có khả năng trở nên phổ biến trong tương lai . Ông nói: “Chúng tôi thấy trước nhu cầu lớn về các chuyên gia bảo mật để chống lại mối đe dọa mới này, hiện nay đòi hỏi các kỹ năng và kiến thức AI phải được áp dụng”.
Trong khi đó, các cơ quan phát hiện deepfake vẫn đang cố gắng tìm cách tốt nhất để xác định liệu phương tiện truyền thông có bị làm giả hay không. Và thật không may, không có cách sửa chữa dễ dàng.
Ajder nói: “Phát hiện được cho là giải pháp tốt nhất, đề cập đến một bộ lọc sử dụng các thuật toán để lọc ra các phương tiện bị thao túng, để lại những gì xác thực. Tuy nhiên, thật không may, “thật khó để phát hiện tốt trên quy mô lớn và kết hợp nó vào cơ sở hạ tầng kỹ thuật số trong cuộc sống của chúng ta”
Ajder nói. “Hệ thống phát hiện không phải lúc nào cũng hoạt động và chúng không đủ chính xác và đáng tin cậy để triển khai, đặc biệt là đối với các nền tảng đang xử lý một lượng lớn phương tiện mỗi giây”.
Một cách tiếp cận kỹ thuật khác được gọi là xác thực nội dung, trong đó nền tảng xác minh ảnh như TruePic hoặc Adobe có thể xác thực ảnh hoặc video tại điểm chụp của nó, về cơ bản là lấy dấu vân tay của ảnh gốc và ghi lại bất kỳ thay đổi nào được thực hiện đối với ảnh trong quá trình thực hiện. Nhưng cách tiếp cận đó cũng có những mặt trái của nó, Ajder nói: “Mọi người có thể chụp ảnh hoặc trong một số trường hợp, những người đang chụp ảnh có thể muốn ẩn danh. Việc dán nhãn nội dung mà họ đang gửi có thể rất nguy hiểm đối với họ ”.
Làm sao để không tự biến mình thành nạn nhân của Deepfake?
Thời điểm hiện tại, các ứng dụng ghép mặt vào video vẫn xuất hiện trên AppStore/ CH Play và chưa có cảnh báo chính thức về việc thu thập thông tin cá nhân của các ứng dụng này. Tốt hơn hết, người dùng nên cảnh giác để tránh rơi vào những rắc rối không mong muốn.
Người dùng nên cảnh giác với những ứng dụng thu thập dữ liệu cá nhân.
Bên cạnh đó, chúng ta cũng có thể chống lại những nguy cơ bị giả mạo bằng các cách như:
- Dán camera điện thoại, laptop bằng băng dính đen khi không sử dụng.
- Hạn chế sử dụng những ứng dụng không rõ nguồn gốc, không đảm bảo tính bảo mật thông tin.
- Vô hiệu hóa điện thoại ngay khi bị mất.
- Lưu trữ đầy đủ thông tin quan trọng để làm bằng chứng cho bản thân.
- Hạn chế sử dụng VPN (mạng riêng ảo) vì bạn có thể bị lộ thông tin hoặc không có tên trong hệ thống chính quy khi truy vết.
Đừng quên rằng, bất kỳ ai trong chúng ta cũng có thể trở thành nạn nhân của những kẻ mạo danh trên mạng.