Có phải đại dịch Covid-19 là cú đánh cần thiết đã khiến các doanh nghiệp tham gia cuộc chiến chống lại nạn tin giả?

0
134
(SCMP)
(SCMP)

Gần đây trang mạng Global Data đã ra báo cáo về tình trạng thông tin sai lệch. Báo cáo cho rằng đại dịch Covid-19 là “mảnh đất màu mỡ cho tin tức giả và sự khai thác nỗi sợ hãi của công chúng”. Các nền tảng truyền thông xã hội đã phải vật lộn để ngăn chặn sự lan truyền của các trò lừa bịp, thuyết âm mưu và cách chữa bệnh lang băm, một số mạng xã hội xem xét lại chính sách quảng cáo của họ để cấm quảng bá thông tin sai lệch về y tế. Bất chấp những nỗ lực này, các nền tảng truyền thông xã hội vẫn bị các chính trị gia đổi lỗi đã không ngăn chặn sự lan truyền thông tin sai lệch trên nền tảng của họ. Cuộc tranh luận trở nên đặc biệt gây tranh cãi sau cuộc bạo loạn chết người ở Đồi Capitol vào ngày 06/1/2021 sau khi một đám đông không phù hợp gồm những người ủng hộ Donald Trump, những thuyết âm mưu của nhóm QAnon và những kẻ chống đối đeo mặt nạ đã bị đánh lừa bởi tin tức giả khi cho rằng cuộc bầu cử tổng thống Mỹ ngày 3/11/2020 đã bị đánh cắp.

Khi trao đổi với phóng viên của trang mạng offshore-technology.com, ông Henry Brown, Giám đốc về dữ liệu và phân tích tại Ciklum; Jared Ficklin, Trưởng nhóm công nghệ sáng tạo tại Argodesign; Andy Parsons, Giám đốc sáng kiến x​ác thực nội dung tại Adobe; Andy Patel, nhà nghiên cứu, Trung tâm AI xuất sắc tại F- Secure; và Rachel Roumeliotis, Phó Chủ tịch về dữ liệu và AI tại O’Reilly đã tập trung nêu vấn đề về chế tài đối với tin tức giả sẽ phải cần nhiều hơn sự trợ giúp của trí tuệ nhân tạo (AI) và trí thông minh từ những người đứng đầu mạng xã hội.

Sau đây là nội dung chính của cuộc trao đổi trên:

Giacomo Lee: Có phải tin giả hầu như luôn mang màu sắc chính trị giống nhau không?

Andy Patel, F-Secure: Thông tin sai lệch và hành vi sùng bái tồn tại ở tất cả các mặt của phương trình chính trị. Các ví dụ từ bên cánh tả bao gồm sự chia rẽ giữa những người ủng hộ [Black Lives Matter], Bernie Sanders và Hillary Clinton trong cuộc bầu cử năm 2016 ở Mỹ và gần đây nhất là cuộc chiến giữa những người ủng hộ các đảng phái chính trị thiên tả và các nhân vật ở Vương quốc Anh.

Thông tin sai lệch được chia sẻ bởi các nhóm này được sử dụng để đấu tranh nội bộ mạnh hơn nữa và khá cụ thể đối với chương trình nghị sự chính trị của từng nhóm chính trị. Do đó, thông tin sai lệch này không gây tác động đáng chú ý đến công chúng. Những câu chuyện kể về nhóm thuyết âm mưu QAnon, chống tiêm vắc-xin phòng ngừa Covid-19 (anti-vax), chống đeo khẩu trang y tế (anti-mask), “Covid Hoax” (sự lừa bịp) và “Stop the Steal” đều đã tác động đến công chúng và đó là lý do tại sao có sự tập trung vào những thông tin sai lệch đến từ phía cánh hữu. Tuy nhiên, hãy lưu ý rằng bất kỳ thông tin sai lệch nào được chia sẻ bởi bất kỳ nhóm nào trong số này cho dù họ là cánh tả hay cánh hữu thì đều có thể bị kẻ thù lợi dụng ngay cả trong nước và nước ngoài, điều này đẫn đến việc gây hại thêm cho xã hội.

Tin tức giả mạo có được khuyến khích bởi các tác nhân chính trị không?

Ông Jared Ficklin (Argodesign): Chúng ta thường cố gắng thao túng “sự thật” để đạt được quyền lực chính trị như là động cơ chính của tin tức giả mạo. Nhưng có rất nhiều động cơ khác như bán quảng cáo bằng cách sử dụng tiếp thị liên kết được nhắm mục tiêu thúc đẩy một người viết tin tức giả mạo. Trên thực tế, doanh thu từ quảng cáo có thể thúc đẩy tin tức giả mạo nở rộ ở phạm vi rộng hơn nhiều. Sự thiên vị thỏa thuận là một tâm lý mạnh mẽ đang được khai thác ở đây. Nếu ai đó tin rằng Trái đất phẳng, nhiều khả năng họ sẽ đọc những câu chuyện về Trái đất phẳng. Họ cũng có nhiều khả năng tin tưởng các nhà quảng cáo trong câu chuyện đó hơn nếu nó đồng ý với quan điểm của họ. Vì vậy, nếu người ta muốn bán một chiếc áo phông Trái đất phẳng thì họ nên viết một câu chuyện về xã hội Trái đất phẳng và sau đó sử dụng phương tiện truyền thông xã hội có mục tiêu để giới thiệu nó trước những Tín đồ Trái đất phẳng. Đây chỉ là phương tiện báo chí mang tính kỹ thuật nhỏ nhất trước khi mạng xã hội sẽ trở nên là lĩnh vực của tạp chí hoặc tài liệu quảng cáo. Điều này sẽ không bao giờ được in ra trên báo giấy đo đối tượng lại quá hẹp.

AI thực sự có thể giúp chống lại nạn tin tức giả không?

Ông Henry Brown (Ciklum): Xử lý ngôn ngữ tự nhiên (NLP) có thể được sử dụng để phát hiện các sắc thái trong ngữ pháp, chính tả và cấu trúc câu, từ đó có thể tiết lộ vấn đề với tác giả ban đầu của một bài báo hoặc một phần nội dung bài viết. Các kỹ thuật mạng cũng có thể giúp phát hiện những người dùng cụ thể trên các nền tảng truyền thông xã hội có xu hướng chia sẻ tin tức giả mạo nhiều hơn và do đó cố gắng khuyến khích việc thực thi tốt hơn nội dung mà họ chia sẻ. Một cảnh báo tin tức giả mạo sau đó có thể được chia sẻ với những người dùng khác trên nền tảng.

Ông Ficklin (Argodesign): Real News Layer là một dự án đang được người ta tìm hiểu khi được thiết kế nhằm nâng cao kỹ năng tư duy phản biện của chúng ta. Đó là sự kết hợp giữa giao diện người dùng được thiết kế tốt và các thuật toán khớp mẫu truyền thống và công nghệ thêu dệt tin tức trên trang web để tạo ra một nhóm dữ liệu. AI có thể hỗ trợ nâng cao những điều này bằng cách phù hợp hơn nhiều để đối chiếu và tương quan các câu chuyện cho chúng ta một cách tốt hơn song AI không phải là một người kiểm tra thực tế vì nó chỉ là một nhà nghiên cứu. Trong trường hợp các thuật toán truyền thống không thể xác định được hai câu chuyện về cùng một chủ đề thì AI có thể được triển khai để xác định sắc thái.

Loại tập dữ liệu nào sẽ được sử dụng để đào tạo AI này?

Ông Ficklin (Argodesign): Có lẽ hệ thống có thể được bắt đầu với rất ít thứ có thể là sự thật thuần túy, chẳng hạn như lực hấp dẫn trên Trái đất, nhưng theo nhiều cách thì nó không nên được phân biệt đâu là sự thật. Thay vào đó, nó phải là một bộ so sánh về những gì được viết, bởi ai phát triển và mức độ gần gũi của chúng đối với nguồn hoặc sự kiện thực tế.

Giả sử người ta đang đọc một phán quyết của Tòa án Tối cao. Real News Layer có thể đề cập với chúng ta rằng nó đã tìm thấy 100 biến thể của bài báo bạn đang đọc về nhận định cụ thể này và vào ngày cụ thể này. Trong số các biến thể, có tổng cộng 50 sự kiện được khẳng định và bài viết của chúng ta chỉ chứa bốn trong số các khẳng định đó, con số này nằm ngoài mức trung bình. Nó có thể tiết lộ câu chuyện của chúng ta cũng bao gồm các xác nhận độc đáo. Nó cũng có thể tiết lộ rằng bài viết của chúng ta đang đi xuống thẩm quyền được phân bổ. Khi nhìn sơ qua, người ta sẽ nhận ra bài viết của mình chỉ tiết lộ ý kiến ​​của hai thẩm phán bất đồng chính kiến ​​của một đảng chính trị nào đó và thực sự được viết dựa trên một bài báo khác. Trong khi đó, người ta có thể thấy phần lớn phần còn lại của thế giới đang đọc một bài báo với nhiều thông tin hơn do một phóng viên thực sự có mặt tại phiên điều trần của tòa án viết.

AI có thể phân loại tính xác thực của các nhà văn cũng như nhà bán lẻ hay không?

Ficklin (Argodesign): Đó là lúc người ta có thể nhìn vào người phóng viên đối với bài báo của bạn. AI đã xếp hạng phóng viên này về vị trí và phân bổ. Họ dường như quy kết rất nhiều người khác nhưng không bao giờ nhận được sự phân bổ. Tiếp đó, các câu chuyện của họ dường như xuất hiện trong cùng một ấn phẩm được nhóm riêng của họ đọc mà thôi.

Những người sáng tạo hình ảnh bị lãng quên trong cuộc thảo luận về thông tin sai lệch. Điều này có đúng hay không?

Ông Andy Parsons (Adobe): Tôi nghĩ đôi khi cũng vậy, nhưng với mối quan hệ của Adobe với cộng đồng sáng tạo, chúng tôi đã tạo ra liên minh Sáng kiến ​​Xác thực Nội dung (Content Authenticity Initiative-CAI) để giải quyết nhu cầu của họ và thừa nhận vai trò quan trọng của họ.

Với sự gia tăng của các đối tượng trực quan hoàn toàn không xác thực, bao gồm cả mô tả con người, nội dung lừa đảo có thể được tạo ra mà không cần chỉnh sửa nội dung đưa ra trước đó. Đây là lý do tại sao chúng ta phải thiết lập lại sự hiểu biết chung về các nhân tố khách quan trước khi sự hiểu biết của chúng ta về những gì “thực”’ trên mạng bị mai một ngoài tầm với của sự khôi phục.

Tầm quan trọng của cuộc chiến chống lại video và hình ảnh giả mạo, ngay cả bây giờ trước khi thời đại deepfake thực sự đổ bộ?

Parsons: Các ý tưởng cốt lõi đằng sau công việc CAI áp dụng tốt cho bất kỳ loại phương tiện truyền thông nào, bao gồm văn bản, âm thanh, hình ảnh và video. Điều cần thiết là phát triển các kỹ thuật và tiêu chuẩn để chống lại nội dung không xác thực ngay bây giờ vì hai lý do.

Đầu tiên, chúng ta đã thấy những ví dụ cực kỳ nguy hiểm về thông tin sai lệch cố tình gây hiểu lầm bằng các cuộc tấn công đơn giản, không tinh vi. Những kẻ xấu sẽ không nhất thiết phải tiếp cận với những món ăn sâu sắc nếu mục tiêu của họ có thể đạt được bằng những phương tiện đơn giản hơn. Thứ hai, phát hiện ra deepfakes là một cuộc chạy đua vũ trang đã và đang diễn ra. Những người tạo ra nội dung xấu độc hại sử dụng các công cụ ngày càng phức tạp hơn và các thuật toán phát hiện phải bắt kịp tốc độ đó.

Do các công cụ để tạo ra sự không xác thực chất lượng Hollywood không chỉ dễ tiếp cận hơn bây giờ mà còn rẻ hoặc miễn phí, điều quan trọng hơn bao giờ hết là phải có các biện pháp để các diễn viên giỏi sử dụng các công cụ này một cách có trách nhiệm và để những người tiêu dùng có quyền truy cập thông tin về cái cách nội dung của họ đã trở thành.

Chúng ta đi bao xa để hình ảnh và video gốc có thể dễ dàng truy tìm được như bài viết xác thực?

Parsons: Chúng tôi hy vọng dữ liệu xuất xứ của CAI sẽ là một tín hiệu đào tạo quan trọng cho các mô hình phát hiện AI và để xuất xứ được sử dụng cùng với kết quả được phát hiện ra. Ví dụ: một thuật toán được phát hiện có thể sử dụng AI để đánh giá một hình ảnh có tới 80% khả năng là xác thực, sau đó tham khảo nguồn gốc của hình ảnh đó trước khi đưa ra đánh giá.

Điều ngược lại cũng được xem là rất quan trọng: Nguồn gốc của chúng ta có thể bao gồm kết quả phát hiện của AI như một phần của dữ liệu được niêm phong chính là dữ liệu có thể xác minh. Ví dụ: Nếu thuật toán phát hiện được sử dụng trên video được tải lên mạng xã hội, kết quả phân tích có thể được đính kèm vào video theo cách tương tự như các xác nhận có thể xác minh được như bản quyền, dữ liệu máy ảnh và lịch sử chỉnh sửa được bảo mật. Với điều này được tiết lộ một cách minh bạch, các nền tảng hạ nguồn và người tiêu dùng sau đó có thể quyết định xem video đó có đáng tin cậy hay không.

Rachel Roumeliotis (O’Reilly): Với sự ra đời của các tổ chức như CAI và mã thông báo không thể thay thế (NFTS) chiếm phần nào đó trên vũ đài trung tâm, những người sáng tạo kỹ thuật số ghi dấu công việc của họ sẽ có được động lực trong vài năm tới.

Điều gì có thể là một câu hỏi thú vị khác để suy nghĩ là điều gì sẽ xảy ra nếu AI tạo ra thứ gì đó? Ai sở hữu nó? Điều đó theo dõi ai: người viết thuật toán hay là một công ty? Vì các công nghệ như lập trình ngôn ngữ tư duy (Neuro Linguistic Programming- NLP) đã và đang làm được điều này, nên đó là điều chúng ta cần giải quyết trong tương lai gần.

Brown: Deepfakes có thể được tạo ra bởi AI, nhưng AI cũng có thể được sử dụng để phát hiện nó. Trên thực tế, khả năng trí tuệ nhân tạo (cụ thể là Generative Adversarial Networks-GANS) tạo ra nội dung giả có liên quan trực tiếp đến khả năng phát hiện ra nó. AI sẽ học cách tạo ra các ví dụ tốt hơn về deepfakes nếu nó có thể phân biệt giữa thực và hư cấu. Một giải pháp về công nghệ học máy (Machine learning-ML) tạo ra nội dung (bộ phát điện) và một giải pháp ML khác (bộ phân biệt) cố gắng phát hiện xem nội dung có phải là giả hay không. Tất nhiên, một nhóm muốn tạo và tung tin giả do GANS là một thuật toán học không giám sát tạo ra, có thể sẽ không phát hành các thuật toán phân biệt đối xử của họ, nhưng ít nhất về mặt lý thuyết, ai đó có thể xây dựng giải pháp công nghệ học máy phân biệt của riêng họ để giải quyết vấn đề đó. AI cũng có thể sử dụng kỹ thuật “lấy dấu vân tay” để xác định xem một hình ảnh có trước sự kiện hoặc khoảnh khắc được xác nhận hay không.

(Tổng Lãnh sự quán Việt Nam tại Houston, Mỹ)

LEAVE A REPLY

Please enter your comment!
Please enter your name here