Hệ thống AI với 'nguy cơ không chấp nhận được' hiện đã bị cấm ở Liên minh châu Âu

Vào Chủ nhật tại Liên minh châu Âu, cơ quan quản lý của khối có thể cấm việc sử dụng các hệ thống AI mà họ coi là tạo ra 'nguy cơ không chấp nhận được' hoặc gây hại.

Ngày 2 tháng 2 là hạn cuối tuân thủ đầu tiên cho Đạo luật AI của Liên minh châu Âu, khung pháp lý AI toàn diện mà Quốc hội châu Âu cuối cùng đã phê chuẩn vào tháng 3 năm ngoái sau nhiều năm phát triển. Đạo luật chính thức có hiệu lực từ ngày 1 tháng 8; điều tiếp theo là các hạn chót tuân thủ đầu tiên.

Các chi tiết được quy định tại Điều 5, nhưng nói chung, Đạo luật được thiết kế để bao gồm một loạt các trường hợp sử dụng nơi mà AI có thể xuất hiện và tương tác với cá nhân, từ các ứng dụng tiêu dùng đến môi trường vật lý.

Theo cách tiếp cận của khối, có bốn cấp độ rủi ro rộng lớn: (1) Rủi ro tối thiểu (ví dụ: bộ lọc thư rác) sẽ không phải chịu sự giám sát của cơ quan quản lý; (2) rủi ro hạn chế, bao gồm các trợ lý trò chuyện dành cho dịch vụ khách hàng, sẽ phải chịu sự giám sát nhẹ nhàng; (3) rủi ro cao - AI cho các đề xuất về chăm sóc sức khỏe là một ví dụ - sẽ phải chịu sự giám sát nghiêm ngặt; và (4) các ứng dụng có rủi ro không chấp nhận được - trọng tâm của các yêu cầu tuân thủ trong tháng này - sẽ bị cấm hoàn toàn.

Một số hoạt động không chấp nhận bao gồm:

  • AI được sử dụng cho điểm xã hội (ví dụ: xây dựng hồ sơ rủi ro dựa trên hành vi của một người).
  • AI manipulates các quyết định của một người một cách tiềm thức hoặc gian lận.
  • AI lợi dụng những điểm yếu như tuổi tác, khuyết tật hoặc địa vị xã hội.
  • AI cố gắng dự đoán các người phạm tội dựa trên diện mạo của họ.
  • AI sử dụng sinh trắc học để suy luận đặc điểm của một người, như giới tính tình dục của họ.
  • AI thu thập dữ liệu sinh trắc học 'thời gian thực' tại các nơi công cộng cho mục đích thi hành pháp luật.
  • AI cố gắng suy luận cảm xúc của mọi người tại nơi làm việc hoặc trường học.
  • AI tạo ra - hoặc mở rộng - cơ sở dữ liệu nhận dạng khuôn mặt bằng cách chấp nhận hình ảnh trực tuyến hoặc từ camera an ninh.

Các công ty được phát hiện sử dụng bất kỳ ứng dụng AI trên đầu đề trên ở Liên minh châu Âu sẽ chịu mức phạt, bất kể họ có trụ sở tại đâu. Họ có thể bị phạt tới 35 triệu € (~36 triệu USD), hoặc 7% doanh thu thường niên từ năm tài chính trước, con số nào lớn hơn thì sẽ được áp dụng.

Các mức phạt sẽ không bắt đầu áp dụng trong một thời gian nhất định, nhưng Rob Sumroy, trưởng nhóm công nghệ tại công ty luật Anh Slaughter và May, lưu ý trong một cuộc phỏng vấn với TechCrunch.

“Được dự kiến các tổ chức sẽ tuân thủ đầy đủ vào ngày 2 tháng 2, nhưng... khẳng định đây là hạn chót lớn tiếp theo mà các công ty cần phải biết đến là vào tháng 8”, Sumroy nói. “Bằng cách ấy, chúng ta sẽ biết rõ đâu là các cơ quan có thẩm quyền, và các mức phạt và quy định thi hành sẽ có hiệu lực.”

Cam kết sơ bộ

Hạn chót ngày 2 tháng 2 ở một số lĩnh vực có phần như một hình thức quy định.

Tháng 9 năm trước, hơn 100 công ty đã ký kết Hiệp định AI của Liên minh châu Âu, một cam kết tự nguyện để bắt đầu áp dụng các nguyên tắc của Đạo luật AI trước khi nó áp dụng. Là một phần của Hiệp định, những bên ký kết - trong đó có Amazon, Google và OpenAI - cam kết xác định các hệ thống AI có khả năng được phân loại là có rủi ro cao dưới Đạo luật AI.

Một số tập đoàn công nghệ lớn, đặc biệt là Meta và Apple, đã bỏ qua Hiệp định. Công ty khởi nghiệp AI Pháp Mistral, một trong những nhà chỉ trích mạnh mẽ nhất của Đạo luật AI, cũng chọn không ký kết.

Điều đó không ngụ ý rằng Apple, Meta, Mistral hoặc những ai không đồng ý với Hiệp định sẽ không đáp ứng các nghĩa vụ của họ - bao gồm cấm các hệ thống có nguy cơ không chấp nhận được. Sumroy chỉ ra rằng, với bản chất của các trường hợp sử dụng bị cấm được nêu ra, hầu hết các công ty sẽ không tiến hành các thực hành đó ở bất kỳ cơ sở nào.

“Đối với các tổ chức, một lo ngại chính về Đạo luật AI của Liên minh châu Âu là liệu hướng dẫn, tiêu chuẩn và mã etic có sức mạnh đến đúng lúc không - và đặc biệt, liệu chúng có cung cấp cho tổ chức sự rõ ràng về tuân thủ hay không,” Sumroy nói. “Tuy nhiên, các nhóm làm việc hiện đã đáp ứng các hạn chót về mã etic cho… nhà phát triển.”

Các trường hợp miễn trừ có thể

Có một số ngoại lệ cho một số lệnh cấm của Đạo luật AI.

Ví dụ, Đạo luật cho phép lực lượng thi hành pháp luật sử dụng một số hệ thống thu thập sinh trắc học tại nơi công cộng nếu những hệ thống đó giúp thực hiện một “tìm kiếm đích danh” cho, ví dụ, một nạn nhân bắt cóc, hoặc để giúp ngăn chặn một “mối đe dọa cụ thể, quan trọng và nguy cấp” đến tính mạng. Miễn trừ này yêu cầu sự ủy quyền từ cơ quan quản lý thích hợp, và Đạo luật nhấn mạnh rằng lực lượng thi hành pháp luật không thể đưa ra quyết định mà “tạo ra hậu quả pháp lý tiêu cực” đối với một người chỉ dựa trên kết quả của các hệ thống này.

Đạo luật cũng giới hạn ngoại lệ cho các hệ thống suy luận cảm xúc trong các nơi làm việc và trường học nơi có “lý do y tế hoặc an toàn”, như các hệ thống được thiết kế cho việc sử dụng trị liệu.

Ủy ban châu Âu, cơ quan chấp hành của Liên minh châu Âu, nói rằng họ sẽ phát hành các hình thức chỉ dẫn bổ sung vào “đầu năm 2025”, sau cuộc thảo luận với các bên liên quan vào tháng 11. Tuy nhiên, những hình thức chỉ dẫn đó vẫn chưa được công bố.

Sumroy nói rằng cũng không rõ là các luật pháp khác trên sách có thể tương tác với các lệnh cấm của Đạo luật AI và các quy định liên quan. Sự rõ ràng có thể không đến cho đến sau vào năm nay, khi cửa sổ thi hành đang đến gần.

“Đối với các tổ chức, cần nhớ rằng quy định về AI không tồn tại độc lập,” Sumroy nói. “Khung pháp lý khác như GDPR, NIS2 và DORA sẽ tương tác với Đạo luật AI, tạo ra thách thức tiềm ẩn - đặc biệt là với những yêu cầu thông báo sự cố chồng chéo. Hiểu về cách luật pháp này tương thích với nhau sẽ quan trọng như việc hiểu về Đạo luật AI chính.”