Microsoft Video Authenticator: công cụ hỗ trợ xác định deepfake và ngăn chặn thông tin sai lệch

Microsoft vừa trình làng một công nghệ mới có tên Microsoft Video Authenticator, được thiết kế để giúp chống lại hành vi lừa đảo, sử dụng thông tin, hình ảnh và thậm chí là video giả mạo (theo kỹ thuật deepfake) để truyền bá thông tin sai lệch, đặc biệt là trong cuộc bầu cử tổng thống sắp sắp diễn ra ở Hoa Kỳ.

Deepfake và những vấn đề đang tồn tại

Deepfake (một từ ghép của “deep learning” và “fake”) là một kỹ thuật tổng hợp hình ảnh con người dựa trên trí tuệ nhân tạo (AI). Nó được sử dụng để kết hợp và chồng các hình ảnh, video khác lên các hình ảnh hoặc video nguồn bằng cách sử dụng một kỹ thuật học máy (machine learning) được gọi là Generative Adversarial Network (tạm dịch: mạng chống đối tạo sinh). Nói theo cách dễ hiểu hơn, deepfake là một chương trình sử dụng trí thông minh nhân tạo, cho phép người sử dụng hoán đổi khuôn mặt của ai đó trong video (và cả hình ảnh) bằng khuôn mặt của người khác.

Vì những khả năng này, deepfake thường bị kẻ xấu sử dụng để tạo tin tức giả và những trò lừa đảo nhằm bôi nhọ, gây ảnh hưởng đến uy tín của các cá nhân, tổ chức, đặc biệt là người nổi tiếng. Điều này không chỉ gây tổn hại đến danh dự, nhân phẩm của người bị giả mạo mà còn khiến dư luận trở nên xôn xao và xảy ra nhiều tranh cãi hoặc có thể là những mâu thuẫn tệ hơn thế nữa.

Microsoft Video Authenticator

Phương thức hoạt động của Microsoft Video Authenticator về cơ bản không có gì phức tạp, nó sử dụng thuật toán để phân tích ảnh tĩnh hoặc video ở cấp độ pixel mà mắt thường không thể nhìn thấy được, nhằm đưa ra tỷ lệ phần trăm cơ hội hoặc điểm số tin cậy, cho biết khả năng hình ảnh, video đó bị can thiệp deepfake là bao nhiêu. Đặc biệt đối với video, công cụ có thể cung cấp điểm số đánh giá theo thời gian thực trên mỗi khung hình nhằm đưa ra kết quả chuẩn xác nhất.

Công nghệ này được phát triển bởi đội ngũ Microsoft Research với sự phối hợp của ủy ban Microsoft AI, Ethics and Effects in Engineering and Research. Ở giai đoạn ban đầu, nó sẽ không được phát hành trực tiếp ra công chúng, mà sẽ chỉ được áp dụng thử nghiệm trong một số cơ quan, tổ chức nhất định. Phía Microsoft hiện đang hợp tác với AI Foundation, một doanh nghiệp thương mại và phi lợi nhuận có trụ sở tại San Francisco, để triển khai thử nghiệm Microsoft Video Authenticator trên một số nền tảng tin tức và các chiến dịch chính trị.

Tuy nhiên, một hạn chế của công nghệ này là nó có nguy cơ nhanh chóng trở nên lỗi thời vì công nghệ deepfake sẽ tiếp tục phát triển không ngừng về độ tinh vi. Microsoft đã công bố một hệ thống riêng biệt cho phép các nhà sản xuất nội dung thêm mã ẩn vào cảnh quay của họ để mọi thao tác giả mạo có thể bị gắn cờ, đồng thời đẩy mạnh hợp tác với hàng loạt công ty truyền thông như BBC, CBC/Radio-Canada, New York Times... để thử nghiệm công nghệ và biến nó trở thành tiêu chuẩn.

Nguồn tham khảo: quantrimang.com