ChatGPT từ chối 250.000 yêu cầu tạo ảnh deepfake các ứng cử viên trong tháng trước cuộc bầu cử Tổng thống Mỹ

Chủ nhật - 10/11/2024 13:05
 

Đầu năm nay, OpenAI cho biết các sản phẩm AI của họ có "ranh giới" để ngăn chặn việc lạm dụng, chẳng hạn deepfake hoặc chatbot đóng giả các ứng cử viên. Thông báo này được OpenAI đưa ra khi xuất hiện mối lo ngại lo ngại AI sẽ gây rối loạn suốt chiến dịch tranh cử Tổng thống Mỹ, tạo ra deepfake và các thuyết âm mưu để người dùng phát tán trực tuyến.

Hồi tháng 1, cử tri bang New Hampshire nhận được các cuộc gọi tự động giả mạo Tổng thống Joe Biden, khuyến khích họ không đi bỏ phiếu trong cuộc bầu cử sơ bộ của bang tháng đó.

Mới đây, OpenAI cho biết ChatGPT đã từ chối khoảng 250.000 yêu cầu tạo ảnh deepfake của các ứng cử viên bằng DALL-E (trình tạo nghệ thuật AI của công ty) trong tháng trước cuộc bầu cử Tổng thống Mỹ.

"Trong tháng trước Ngày bầu cử, chúng tôi ước tính ChatGPT đã từ chối hơn 250.000 yêu cầu tạo hình ảnh DALL-E của Tổng thống đắc cử Trump, Phó tổng thống Harris, Phó tổng thống đắc cử Vance, Tổng thống Biden và Thống đốc Walz", OpenAI tiết lộ trong bài đăng trên blog.

Trước đó, OpenAI cho biết sẽ hướng dẫn ChatGPT trả lời các câu hỏi về việc bỏ phiếu bằng cách hướng người dùng đến trang CanIVote.org. Trong tháng trước ngày 5.11, ChatGPT đã đưa ra khoảng 1 triệu câu trả lời hướng người dùng kiểm tra trang thông tin về bầu cử này, theo OpenAI.

CanIVote.org là trang web cung cấp thông tin bầu cử tại Mỹ, được quản lý bởi Hiệp hội Quốc gia của Các Giám đốc Bầu cử Tiểu bang (National Association of Secretaries of State). Trang web này giúp cử tri xác minh tình trạng đăng ký bầu cử, tìm địa điểm bỏ phiếu và cung cấp thông tin về quy trình bầu cử ở từng tiểu bang. CanIVote.org là nguồn tài nguyên đáng tin cậy để giúp người dân nắm rõ thông tin cần thiết cho việc bỏ phiếu, gồm các yêu cầu nhận dạng khi bỏ phiếu và tùy chọn bỏ phiếu từ xa nếu có.

OpenAI cũng cho biết vào ngày 5.11, công ty trả lời các câu hỏi về kết quả bầu cử bằng cách giới thiệu người dùng đến hãng tin tức như Associated Press và Reuters.

"Khoảng 2 triệu phản hồi ChatGPT đã bao gồm cả thông báo này vào ngày 5.1 và 6.11", OpenAI cho biết trong bài đăng trên blog.

ChatGPT cũng tránh bày tỏ quan điểm chính trị về các ứng cử viên, không giống chatbot Grok AI của Elon Musk bày tỏ sự phấn khích khi ông Trump giành chiến thắng.

Trước cuộc bầu cử Tổng thống Mỹ hôm 5.11, OpenAI đã tiếp nhận hàng ngăm ngàn yêu cầu tạo ảnh deepfake các ứng cử viên - Ảnh: Internet

Cuộc bầu cử Tổng thống Mỹ vừa qua đóng vai trò là thử thách quan trọng với các công ty AI muốn cung cấp cho người dùng thông tin liên quan đến bầu cử và cập nhật về kết quả bỏ phiếu.

ChatGPT chưa tồn tại trong cuộc bầu cử Tổng thống Mỹ vào năm 2020. Việc OpenAI ra mắt ChatGPT hồi tháng 11.2022 đã kích hoạt làn sóng các công cụ và chatbot AI tạo sinh được tích hợp vào các sản phẩm tiêu dùng phổ biến như Google Search.

Trước cuộc bầu cử Tổng thống Mỹ năm 2024, các công ty đứng sau sản phẩm phải quyết định sẽ áp dụng những hạn chế nào, nếu có, với nội dung do AI tạo ra liên quan đến bầu cử, đồng thời phân tích những rủi ro liên quan.

Một số công ty, gồm cả công ty khởi nghiệp AI Perplexity, mạnh dạn hướng tới việc này.

Perplexity đã ra mắt Trung tâm thông tin bầu cử chuyên dụng, sử dụng AI để cung cấp thông tin về cuộc bầu cử Tổng thống Mỹ và theo dõi kết quả. Trung tâm này gồm thông tin chi tiết về các yêu cầu bỏ phiếu, cách tìm địa điểm bỏ phiếu và thời gian bỏ phiếu của người dân Mỹ, cũng như phân tích tóm tắt của AI về những biện pháp bỏ phiếu và ứng cử viên.

"Perplexity sử dụng một quy trình gọi là Retrieval-Augmented Generation để xác định thông tin có liên quan và tóm tắt nó theo cách phù hợp với truy vấn của người dùng", Sara Platnick, người phát ngôn của Perplexity, chia sẻ với trang Insider.

Với các câu hỏi liên quan đến bầu cử, Perplexity sử dụng "bộ sưu tập được tuyển chọn" các nguồn phi đảng phái và đã được kiểm tra thực tế. Sara Platnick nói với Insider rằng trung tâm riêng biệt này không sử dụng kiến thức được lưu trữ từ dữ liệu đào tạo mô hình AI trong các phản hồi của mình, giúp giảm thiểu ảo giác (đưa ra thông tin sai lệch y như thật).

Perplexity cung cấp các bản cập nhật trực tiếp về cuộc bầu cử Tổng thống Mỹ vào ngày 5.11 bằng cách sử dụng dữ liệu từ Associated Press. Các phản hồi khác sẽ sử dụng thông tin từ Democracy Works và các nguồn thông tin thực tế phi đảng phái khác, như Ballotpedia cùng các tổ chức tin tức, theo Sara Platnick.

Alon Yamin, đồng sáng lập kiêm Giám đốc điều hành Copyleaks (nền tảng phân tích văn bản dựa trên AI), nói cách tiếp cận của Perplexity "chắc chắn có thể lọc bớt những thông tin không chính xác hoặc không liên quan, cung cấp thông tin tốt hơn dựa trên bối cảnh cụ thể", giúp người dùng truy cập các nguồn đáng tin cậy.

Alon Yamin nói có những lợi ích tiềm năng khi sử dụng AI để biết thông tin bầu cử. AI có thể cung cấp các bản cập nhật theo thời gian thực và giúp xác định xu hướng, tâm lý cử tri và các vấn đề chính.

Tuy nhiên, ông cho rằng khả năng AI tạo ra thông tin sai và các vấn đề về độ chính xác cũng gây ra những rủi ro.

Claude, chatbot AI của công ty khởi nghiệp Anthropic, tích hợp tính năng hiển thị cho phép người dùng hỏi về thông tin bỏ phiếu được chuyển hướng đến TurboVote, nguồn tài nguyên phi đảng phái từ Democracy Works.

Anthropic có các biện pháp phòng ngừa khác, gồm cả việc cấm người dùng sử dụng Claude để quảng bá cho một ứng cử viên hoặc vấn đề cụ thể. Công ty ngăn chặn việc sử dụng chatbot AI để tạo ra thông tin sai lệch về luật bầu cử, ứng cử viên hoặc các chủ đề liên quan. Trong bài đăng của mình, Anthropic tuyên bố các thông tin đầu ra sẽ chỉ giới hạn ở dạng văn bản để giúp loại bỏ "rủi ro về deepfake liên quan đến bầu cử".

Đã trải qua một số sự cố về AI với chatbot Gemini và tính năng AI Overviews, Google chọn triển khai hạn chế về những gì người dùng có thể hỏi các sản phẩm AI của mình về cuộc bầu cử. Google cho biết đang hạn chế chatbot Gemini trả lời các câu hỏi về cuộc bầu cử Tổng thống Mỹ "vì lý do muốn thận trọng".

Brad Carson, đồng sáng lập và Chủ tịch tổ chức phi lợi nhuận Americans for Responsible Innovation, nói với Insider rằng dù cách tiếp cận của Google đáng khen ngợi, nhưng đó không phải là giải pháp toàn cầu cho vấn đề này.

Brad Carson cho biết việc chống lại thông tin sai lệch "không phải là nhiệm vụ dễ dàng". Theo Brad Carson, dù việc các công ty cố gắng hạn chế thông tin sai lệch là điều thông minh, chính phủ cũng nên xây dựng luật yêu cầu họ phải gắn nhãn rõ ràng thông tin cung cấp cho người dùng.

Ông nói dù Google hạn chế vai trò của mình trong việc cung cấp thông tin liên quan đến bầu cử, các công ty khác có thể đảm nhận vị trí đó. Tuy nhiên, Brad Carson cho rằng Google làm như vậy là hành động có trách nhiệm nhằm tránh rủi ro về thông tin sai lệch.

Sơn Vân

Những tin mới hơn

Những tin cũ hơn

Bạn đã không sử dụng Site, Bấm vào đây để duy trì trạng thái đăng nhập. Thời gian chờ: 60 giây