Sam Altman: OpenAI đã ở 'phía sai lầm của lịch sử' đối với mã nguồn mở

Để kết thúc một ngày ra mắt sản phẩm, các nhà nghiên cứu, kỹ sư và lãnh đạo của OpenAI, bao gồm CEO của OpenAI Sam Altman, đã trả lời câu hỏi trong một cuộc hỏi-đáp Reddit AMA vào thứ Sáu.

OpenAI đang đối diện với một tình hình khá nguy hiểm. Họ đang chiến đấu với quan điểm rằng họ đang nhường đất cho các công ty Trung Quốc như DeepSeek trong cuộc đua AI, mà OpenAI cho rằng có thể đã đánh cắp thông tin sở hữu trí tuệ của họ. Nhà sản xuất ChatGPT đang cố gắng củng cố mối quan hệ với Washington và đồng thời tiến hành một dự án trung tâm dữ liệu quy mô lớn, đồng thời cho biết họ đang chuẩn bị cơ sở cho một trong những vòng tài trợ lớn nhất trong lịch sử.

Altman thừa nhận rằng DeepSeek đã làm giảm sự dẫn đầu của OpenAI trong lĩnh vực AI, và ông nói rằng ông tin rằng OpenAI đã ở 'phía sai lầm của lịch sử' khi nói đến việc mã nguồn mở công nghệ của mình. Mặc dù OpenAI đã từng tự do các mô hình trong quá khứ, công ty này đều ưa thích phương pháp phát triển độc quyền, bí mật.

“[Cá nhân tôi nghĩ rằng chúng ta cần] tìm ra một chiến lược mã nguồn mở khác,” Altman nói. “Không phải tất cả mọi người tại OpenAI đồng ý với quan điểm này, và đây cũng không phải là ưu tiên cao nhất hiện tại của chúng tôi ... Chúng tôi sẽ tạo ra các mô hình tốt hơn [trong tương lai], nhưng chúng ta sẽ giữ ít hơn vị thế dẫn đầu so với những năm trước.”

Trong một phản hồi tiếp theo, Kevin Weil, giám đốc sản phẩm của OpenAI, nói rằng OpenAI đang xem xét việc tự do các mô hình cũ không còn là mới nhất nữa. “Chúng tôi sẽ chắc chắn nghĩ về việc làm thêm điều này,” ông nói, mà không đi vào chi tiết hơn.

Ngoài việc thúc đẩy OpenAI để xem xét lại triết lý phát hành của mình, Altman nói rằng DeepSeek đã thúc đẩy công ty để có khả năng tiết lộ thêm thông tin về cách các mô hình lý do, như mô hình o3-mini được phát hành hôm nay, hiển thị 'quá trình suy nghĩ' của họ. Hiện tại, các mô hình của OpenAI giữ mô hình định lý của mình, một chiến lược nhằm ngăn chặn đối thủ scraping dữ liệu huấn luyện cho mô hình của họ. Ngược lại, mô hình lý do của DeepSeek, R1, hiển thị toàn bộ chuỗi suy nghĩ của nó.

“Chúng tôi đang làm việc để hiển thị nhiều hơn những gì chúng tôi hiển thị hôm nay - [hiển thị quá trình suy nghĩ của mô hình] sẽ được thực hiện trong thời gian rất ngắn,” Weil bổ sung. “TBD cho tất cả - hiển thị toàn bộ chuỗi suy nghĩ dẫn đến cô quái cạnh tranh, nhưng chúng tôi cũng biết mọi người (ít nhất là người dùng công việc mạnh) muốn điều đó, vì vậy chúng tôi sẽ tìm cách cân bằng đúng đắn.”

Altman và Weil đã cố gắng xua đuổi tin đồn rằng ChatGPT, nền tảng chatbot thông qua đó OpenAI triển khai nhiều mô hình của mình, sẽ tăng giá trong tương lai. Altman nói rằng ông muốn làm cho ChatGPT “rẻ hơn” theo thời gian, nếu khả thi.

Altman trước đây đã nói rằng OpenAI đang mất tiền trên gói ChatGPT đắt nhất của mình, ChatGPT Pro, có giá 200 đô la mỗi tháng.

Trong một luồng hơi liên quan, Weil nói rằng OpenAI vẫn nhận thấy bằng chứng cho thấy sức mạnh tính toán dẫn đến các mô hình 'tốt' và hiệu suất cao hơn. Đó chính là điều mà đang làm cần thiết cho các dự án như Stargate, dự án trung tâm dữ liệu khổng lồ mới được OpenAI công bố gần đây, Weil cho biết. Đáp ứng nhu cầu người dùng ngày càng tăng đang thúc đẩy nhu cầu tính toán trong OpenAI, ông tiếp tục.

Khi được hỏi về cải thiện tự phục vụ có thể được thực hiện bởi các mô hình mạnh mẽ này, Altman nói ông nghĩ rằng 'việc bắt đầu nhanh' có vẻ khả thi hơn ông từng nghĩ. Cải thiện tự phục vụ là quá trình mà hệ thống AI có thể cải thiện thông minh và khả năng của mình mà không cần thông tin từ con người.

Tất nhiên, cũng cần lưu ý rằng Altman nổi tiếng vì quá quảng cáo. Không lâu trước đây, ông đã điều chỉnh tiêu chuẩn AGI của OpenAI xuống.

Một người dùng Reddit hỏi liệu các mô hình của OpenAI, cải tiến tự phục vụ hay không, có thể được sử dụng để phát triển vũ khí phá hủy - cụ thể là vũ khí hạt nhân. Tuần này, OpenAI đã thông báo một đối tác với chính phủ Hoa Kỳ để cung cấp các mô hình của mình cho các Phòng thí nghiệm Quốc gia Hoa Kỳ một phần để nghiên cứu phòng thủ hạt nhân.

Weil nói rằng ông tin tưởng vào chính phủ.

“Tôi đã hiểu biết với những nhà khoa học này và họ là những chuyên gia AI ngoài sức mạnh và cũng là nhà nghiên cứu cấp thế giới,” ông nói. “Họ hiểu về sức mạnh và giới hạn của các mô hình, và tôi không nghĩ có bất kỳ cơ hội nào họ chỉ quả tự nhập mô hình vào một phép tính hạt nhân. Họ thông minh và dựa trên bằng chứng và họ đã thực hiện nhiều thực nghiệm và công việc dữ liệu để xác thực tất cả công việc của họ.”

Nhóm OpenAI đã được hỏi một số câu hỏi về mặt kỹ thuật hơn, như khi mô hình lý do tiếp theo của OpenAI, o3, sẽ được phát hành (“hơn một vài tuần, ít hơn vài tháng,” Altman nói); khi mô hình 'không lý do' cờ độc đáo tiếp theo của công ty, GPT-5, có thể land (“chưa có một khung thời gian,” Altman nói); và khi nào OpenAI có thể tiết lộ một người kế vị cho DALL-E 3, mô hình tạo hình của công ty. DALL-E 3, được phát hành khoảng hai năm trước, đã trở nên lỗi thời. Công nghệ tạo hình đã cải thiện đáng kể kể từ khi DALL-E 3 ra mắt, và mô hình không còn cạnh tranh trên một số bài kiểm tra tiêu chuẩn.

“Đúng vâng! Chúng tôi đang làm việc trên điều đó,” Weil nói về người kế vị cho DALL-E 3. “Và tôi nghĩ rằng đó sẽ đáng chờ đợi.”