AI và bầu cử: Các công ty công nghệ có thể làm gì?

N

Sự phổ biến rộng rãi của công cụ AI với khả năng tạo tin giả hàng loạt đang là mối đe dọa lớn trong các cuộc bầu cử trên toàn thế giới.

Năm nay là năm đầu tiên các cuộc bầu cử diễn ra trong bối cảnh công cụ AI tạo sinh phát triển mạnh, và thực tế thì chúng đã phát triển đến mức một cá nhân có thể tạo ra tin giả ở quy mô lớn không thua kém gì các tổ chức. Các công ty công nghệ hiện nay, dù đã có các biện pháp phát hiện thông tin giả mạo, đang lo lắng rằng các phương thức xử lý hiện tại là chưa đủ.

Ảnh hưởng của việc này nhiều khả năng sẽ vượt xa lĩnh vực marketing đơn thuần. Người tiêu dùng – đặc biệt là người trẻ – đang ngày càng mất niềm tin vào quảng cáo. Một nghiên cứu gần đây ở Anh cho thấy chỉ 13% dân số tin vào quảng cáo các loại, với nguyên do chính được xác định là sự xuất hiện ngày càng rộng khắp của “tin giả” và các chiến dịch chống vắc xin. Thêm vào đó, sự lan tràn của các thông tin chính trị sai lệch cũng có ảnh hưởng xấu đến lòng tin của người dân vào các chủ đề khác.

Ngày hôm qua, khi các phòng bầu cử ở Iowa mở cửa – đánh dấu sự bắt đầu một mùa bầu cử mới ở Mỹ – OpenAI trở thành công ty mới nhất có những hành động để bảo vệ các cử tri. OpenAI cho biết họ không cho phép bất cứ ai sử dụng công cụ của công ty để thực hiện các chiến dịch chính trị, hay tạo ra chatbot mô phỏng lại các ứng viên bầu cử hay chính phủ địa phương nào.

Hạn chế câu hỏi liên quan đến bầu cử

Trong một bài blog, OpenAI nói rằng “Với mùa bầu cử năm 2024 đang đến gần với các quốc gia dân chủ trên khắp thế giới, chúng tôi muốn đảm bảo sự chính xác trong bầu cử thông qua việc đề cao các nguồn tin về bầu cử chính xác, thi hành các chính sách quan trọng và tăng cường tính minh bạch”

Vào tháng trước, Google cho biết họ sẽ đặt giới hạn cho các câu hỏi về bầu cử trên chatbot của họ, trong khi công ty mẹ của Facebook – Meta – vào năm ngoái đã loại trừ các chiến dịch bầu cử khỏi danh sách người dùng công cụ quảng cáo AI của họ.

OpenAI cũng đưa ra thông tin liên quan đến kế hoạch tích hợp chứng thư số từ Liên minh Xác minh Chống Thông tin Sai lệch (C2PA) vào các hình ảnh do Dall-E tạo ra. Microsoft, Amazon, Adobe, và Getty hiện cũng đang làm việc với C2PA về vấn đề này.

Chris Penn, nhà đồng sáng lập kiêm nhà nghiên cứu dữ liệu chính ở TrustInsights.ai, khi được hỏi về chứng thư số cho rằng dù đây là những hành động đúng đắn từ phía các công ty nhưng “vấn đề là chúng chỉ được áp dụng bởi các công ty đó và các công cụ của họ”.

“Chúng ta sẽ thấy AI tạo sinh được sử dụng và lợi dụng theo những cách thực sự khó tin,” ông Penn cho biết. “Vì ta có một lượng không nhỏ nhân tố, bao gồm cả những cá nhân đơn lẻ và những nhóm hoạt động cho chính phủ của mình, tất cả đang lăm le tìm mọi cách để phá hoại quá trình bầu cử ở Mỹ, và công cụ sản xuất thông tin xấu độc lại rất dễ tiếp cận. Các công cụ đều có mã nguồn mở, nên chúng ta không thể giới hạn chúng được.”

Cùng lúc đó, các công ty cũng đang thực thi nhiều giải pháp để hạn chế những thông tin có hại này.

Tăng cường tính chính thống

OpenAI đang cấm các ứng dụng có thể làm giảm sự uy tín của các cuộc bầu cử – thông qua các tin nhắn như “bầu cử là vô nghĩa” chẳng hạn. Các ứng dụng như ChatGPT cũng đang được huấn luyện để điều hướng các câu hỏi về cách thức hay địa điểm bầu cử sang trang CanIVote.org, trang web do Hội Đồng Tổng Trưởng Quốc Gia (NASS) làm chủ. Công ty cũng cho biết họ đang tăng cường chia sẻ các đường link và trích dẫn từ các bản tin để giúp các cử tri đánh giá mức độ đáng tin cậy của tin nhắn được tạo ra.

Từ phía Google thì họ đang yêu cầu các quảng cáo chính trị sử dụng nhiều nội dung AI phải gắn các mác cảnh báo như:

  • “Hình ảnh không mô tả sự kiện thực tế.”
  • “Nội dung video này không phải do con người tạo ra.”
  • “Đoạn ghi âm này được tạo ra bởi máy tính.”

Tuy nhiên, giải pháp thực sự cho vấn đề này là “giáo dục cho mọi người biết về những gì genAI có thể làm được,” Paul Roetzer – CEO của The Marketing AI Institute cho biết.

Theo lời ông Roetzer: “Xã hội cần nâng cao hiểu biết của mình về những thứ các công cụ này có thể làm. Một người bình thường không hề biết rằng máy móc có thể xây dựng một hình ảnh hay làm ra một video giống thật. Họ sẽ tin vào những thứ họ thấy, và rõ ràng là chúng ta không thể tin tất cả mọi thứ trên không gian mạng được.”

Đáng tiếc rằng, việc này đã là quá muộn cho các cuộc bầu cử năm 2024. Và trước khi chúng ta có thể nâng cao nhận thức cho mọi người, thì các cuộc bầu cử với nguy cơ cao đang được tổ chức ở hơn 50 quốc gia, như Anh, Ấn Độ, Mexico, Pakistan và Indonesia.

(Can tech companies protect elections from AI-powered manipulation? (martech.org), Quang Anh dịch)


Leave a comment
Your email address will not be published. Required fields are marked *