
Mặc dù một số đối thủ của Google, bao gồm OpenAI, đã điều chỉnh các chatbot AI của họ để thảo luận về các chủ đề nhạy cảm về chính trị trong vài tháng gần đây, nhưng Google dường như đang thể hiện một cách tiếp cận bảo thủ hơn.
Khi được yêu cầu trả lời một số câu hỏi chính trị cụ thể, chatbot được trang bị AI của Google, Gemini, thường nói rằng nó “không thể giúp với câu trả lời về cuộc bầu cử và các nhân vật chính trị vào lúc này,” TechCrunch đã phát hiện ra từ kiểm tra của họ. Các chatbot khác, bao gồm Claude của Anthropic, Meta AI của Meta và ChatGPT của OpenAI thường trả lời các câu hỏi tương tự, theo các kiểm tra của TechCrunch.
Google đã thông báo vào tháng 3 năm 2024 rằng Gemini sẽ không trả lời các truy vấn liên quan đến bầu cử trước nhiều cuộc bầu cử diễn ra ở Mỹ, Ấn Độ và các quốc gia khác. Nhiều công ty AI đã áp dụng các hạn chế tạm thời tương tự, lo ngại về phản ứng phản đối trong trường hợp chatbot của họ làm sai điều gì đó.
Tuy nhiên, bây giờ, Google đang trở nên lạc hơn so với các công ty khác.
Cuộc bầu cử hàng năm đã qua đi, nhưng công ty vẫn chưa công bố kế hoạch công khai để thay đổi cách Gemini xử lý các chủ đề chính trị cụ thể. Một người phát ngôn của Google từ chối trả lời các câu hỏi của TechCrunch về việc Google đã cập nhật chính sách xung quanh việc thảo luận chính trị của Gemini hay không.
Rõ ràng là Gemini đôi khi gặp khó khăn hoặc từ chối mạnh mẽ để cung cấp thông tin chính xác về chính trị. Vào sáng thứ Hai, Gemini từ chối khi được yêu cầu xác định tổng thống và phó tổng thống hiện tại của Hoa Kỳ, theo kiểm tra của TechCrunch.
Trong một trường hợp trong các kiểm tra của TechCrunch, Gemini gọi Donald J. Trump là “cựu tổng thống” và sau đó từ chối trả lời một câu hỏi làm sáng tỏ hơn. Một người phát ngôn của Google nói rằng chatbot đã bị nhầm lẫn bởi các nhiệm kỳ không liên tục của Trump và Google đang làm việc để sửa lỗi này.

"Các mô hình ngôn ngữ lớn đôi khi có thể phản hồi với thông tin cũ, hoặc bị nhầm lẫn bởi người nắm giữ văn phòng cả về trước và hiện tại," người phát ngôn nói qua email. "Chúng tôi đang sửa lỗi này."

Vào cuối thứ Hai, sau khi TechCrunch thông báo cho Google về các câu trả lời sai của Gemini, chatbot bắt đầu trả lời đúng rằng Donald Trump và J. D. Vance là tổng thống và phó tổng thống hiện tại của Hoa Kỳ, tương ứng. Tuy nhiên, chatbot không nhất quán, và vẫn đôi khi từ chối trả lời các câu hỏi.
Châm biếm sang một bên, Google dường như đang chọn cách an toàn bằng cách hạn chế các câu trả lời của Gemini đối với các truy vấn chính trị. Nhưng có nhược điểm của cách tiếp cận này.
Nhiều cố vấn Silicon Valley của Trump về AI, bao gồm Marc Andreessen, David Sacks và Elon Musk, đã cáo buộc rằng các công ty, bao gồm Google và OpenAI, đã tham gia vào việc kiểm duyệt AI bằng cách hạn chế câu trả lời của chatbot AI của họ.
Sau khi Trump giành chiến thắng trong cuộc bầu cử, nhiều phòng lab AI đã cố gắng tìm một sự cân bằng khi trả lời các câu hỏi chính trị nhạy cảm, lập trình chatbot của họ để đưa ra câu trả lời trình bày "cả hai phía" của các cuộc tranh luận. Các phòng lab đã phủ nhận rằng điều này là do áp lực từ chính phủ.
OpenAI gần đây đã thông báo rằng họ sẽ chào đón “tự do trí tuệ … bất kể đề tài nào có thể làm gây tranh cãi, và làm việc để đảm bảo rằng các mô hình AI của họ không kiểm duyệt một số quan điểm. Trong khi đó, Anthropic nói rằng mô hình AI mới nhất của họ, Claude 3.7 Sonnet, từ chối trả lời câu hỏi ít hơn so với các mô hình trước đó của công ty, đôi khi là do khả năng phân biệt tinh tế hơn giữa các câu trả lời có hại và vô hại.
Điều đó không có nghĩa là chatbot của các phòng lab AI khác luôn trả lời đúng các câu hỏi khó, đặc biệt là các câu hỏi chính trị khó. Nhưng Google dường như đang hơi chậm so với Gemini.