OpenAI có thể điều chỉnh các biện pháp bảo vệ nếu các đối thủ phát hành AI 'độc hại'

OpenAI đã cập nhật Khung sẵn sàng của mình - hệ thống nội bộ được sử dụng để đánh giá tính an toàn của các mô hình AI và xác định các biện pháp bảo vệ cần thiết trong quá trình phát triển và triển khai. Trong bản cập nhật này, OpenAI cho biết họ có thể 'điều chỉnh' các yêu cầu an toàn nếu một phòng thí nghiệm AI cạnh tranh phát hành một hệ thống 'độc hại' mà không có các biện pháp bảo vệ tương tự.

Sự thay đổi phản ánh áp lực cạnh tranh ngày càng tăng lên đối với các nhà phát triển AI thương mại để triển khai các mô hình nhanh chóng. OpenAI đã bị buộc tội giảm tiêu chuẩn an toàn để ưu tiên việc phát hành nhanh chóng, và không thể cung cấp các báo cáo kịp thời mô tả việc kiểm tra an toàn của mình. Tuần trước, 12 nhân viên cũ của OpenAI đã nộp bản tóm tắt trong vụ kiện của Elon Musk đến chống lại OpenAI, lập luận rằng công ty sẽ được khuyến khích cắt giảm thậm chí nhiều hơn về mặt an toàn nếu hoàn tất quy hoạch cải cách doanh nghiệp được lên kế hoạch của mình.

Có thể dự đoán được lời chỉ trích, OpenAI cho rằng họ sẽ không điều chỉnh các chính sách này một cách nhẹ nhàng, và họ sẽ giữ các biện pháp bảo vệ ở 'một mức độ bảo vệ hơn'.

'Nếu một phát triển mô hình AI tiên phong phát hành một hệ thống 'độc hại' mà không có các biện pháp bảo vệ tương tự, chúng tôi có thể điều chỉnh các yêu cầu của mình,' OpenAI viết trong một bài đăng trên blog được công bố vào chiều thứ Ba. 'Tuy nhiên, chúng tôi sẽ trước hết xác nhận chặt chẽ rằng cảnh quan rủi ro thực sự đã thay đổi, công khai công nhận rằng chúng tôi đang thực hiện điều chỉnh, đánh giá rằng điều chỉnh không tăng đáng kể tổng rủi ro của thiệt hại nghiêm trọng, và vẫn giữ các biện pháp bảo vệ ở mức độ bảo vệ hơn'.

Khung sẵn sàng cập nhật cũng làm rõ rằng OpenAI đang sử dụng nhiều hơn vào các đánh giá tự động để tăng tốc phát triển sản phẩm. Công ty cho biết trong khi họ vẫn chưa hoàn toàn bỏ qua việc kiểm tra do con người lãnh đạo, họ đã xây dựng 'một bộ công cụ đánh giá tự động ngày càng lớn' có thể một cách đáng tin cậy 'theo kịp [một] tốc độ phát hành nhanh hơn'.

Một số báo cáo mâu thuẫn với điều này. Theo Financial Times, OpenAI đã chỉ đưa cho các kiểm tra viên ít hơn một tuần để kiểm tra an toàn cho một mô hình lớn sắp ra mắt - một khung thời gian được nén so với các lần phát hành trước đó. Các nguồn của tờ báo cũng tố cáo rằng nhiều bài kiểm tra an toàn của OpenAI hiện đang được tiến hành trên các phiên bản trước của mô hình thay vì các phiên bản được phát hành cho công chúng.

Trong các tuyên bố, OpenAI đã bác bỏ quan điểm rằng họ đang vi phạm về mặt an toàn.

OpenAI đang một cách im lặng giảm nhẹ các cam kết về an toàn.'

Không còn yêu cầu các bài kiểm tra an toàn của các mô hình đã điều chỉnh

— Steven Adler (@sjgadler) 15 tháng 4 năm 2025

Các thay đổi khác của bộ khung OpenAI liên quan đến cách công ty phân loại mô hình theo rủi ro, bao gồm các mô hình có thể giấu khả năng của họ, tránh các biện pháp bảo vệ, ngăn không cho họ bị tắt và thậm chí tự nhân bản. OpenAI cho biết họ sẽ tập trung vào việc xác định xem mô hình có đạt một trong hai ngưỡng: 'năng lực' cao hay 'năng lực' quan trọng.

Định nghĩa của OpenAI đối với ngưỡng đầu tiên là một mô hình có thể 'tăng cường các con đường hiện có dẫn đến thiệt hại nghiêm trọng.' Những mô hình sau này là những mô hình 'đưa ra các con đường chưa từng có để đến những thiệt hại nghiêm trọng,' theo công ty.

'Các hệ thống được bao phủ mà đạt được năng lực cao phải có các biện pháp bảo vệ đủ đem lại mức độ rủi ro của thiệt hại nghiêm trọng trước khi triển khai,' OpenAI viết trong bài đăng trên blog của mình. 'Các hệ thống đạt được năng lực quan trọng cũng yêu cầu các biện pháp bảo vệ đủ đem lại các rủi ro liên quan trong quá trình phát triển.'

Cập nhật này là lần đầu tiên OpenAI đã thực hiện cho Khung sẵn sàng kể từ năm 2023.