
Tháng trước, Google đã công bố 'Cộng tác viên AI', một trình AI mà công ty cho biết đã được thiết kế để hỗ trợ các nhà khoa học trong việc tạo ra giả thuyết và kế hoạch nghiên cứu. Google quảng cáo nó như là một cách để khám phá kiến thức mới, nhưng các chuyên gia cho rằng nó - và các công cụ tương tự - không thực sự đạt được những lời hứa PR.
'Công cụ sơ bộ này, mặc dù thú vị, không dường như sẽ được sử dụng một cách nghiêm túc,' Sarah Beery, một nghiên cứu về thị giác máy tính tại MIT, cho biết với TechCrunch. 'Tôi không chắc rằng cộng đồng khoa học đang cần đến loại hệ thống tạo giả thuyết này.'
Google là công ty công nghệ lớn nhất mới tiến xa trong ý định rằng AI sẽ gia tăng đáng kể quá trình nghiên cứu khoa học một ngày nào đó, đặc biệt là trong các lĩnh vực đặc thù như y học sinh học. Trong một bài luận vào đầu năm nay, Giám đốc điều hành của OpenAI Sam Altman nói rằng các công cụ AI 'siêu thông minh' có thể 'tăng tốc độ khám phá khoa học và đổi mới một cách lớn mạnh.' Tương tự, Giám đốc điều hành của Anthropic Dario Amodei đã dự đoán một cách táo bạo rằng AI có thể giúp định ra phương pháp chữa bệnh cho hầu hết các loại ung thư.
Nhưng nhiều nhà nghiên cứu không coi AI hiện nay là hữu ích đặc biệt trong việc hướng dẫn quá trình khoa học. Họ cho rằng các ứng dụng như Cộng tác viên AI của Google dường như chỉ là tiếng vọng hơn là bất cứ điều gì, không được khẳng định bằng dữ liệu kinh nghiệm.
Ví dụ, trong bài viết trên blog mô tả về Cộng tác viên AI, Google nói rằng công cụ đã chứng minh tiềm năng trong các lĩnh vực như tái sử dụng thuốc cho huyết khối nhan trung tính cơn đau cơ sọc, một loại ung thư máu ảnh hưởng tới tủy xương. Tuy nhiên, các kết quả lại rất mơ hồ đến mức 'không một nhà khoa học đáng tin cậy nào sẽ nghiêm túc với [chúng],' Favia Dubyk, một bác sĩ bệnh lý liên kết với Bệnh viện Y học Northwest-Tucson ở Arizona, cho biết.
'Điều này có thể được sử dụng như một điểm khởi đầu tốt cho các nhà nghiên cứu, nhưng [...] thiếu thông tin là vấn đề đáng lo ngại và không giúp tôi tin tưởng vào nó,' Dubyk nói với TechCrunch. 'Thiếu thông tin cung cấp làm cho việc hiểu nó đúng sự hóc búa và không thật sự hữu ích.'
Đây không phải lần đầu Google bị cộng đồng khoa học chỉ trích vì chú trọng vào một bước tiến đáng chú ý của AI mà không cung cấp phương tiện để tái tạo kết quả.
Vào năm 2020, Google tuyên bố rằng một trong các hệ thống AI của mình được đào tạo để phát hiện khối u vú đã đạt được kết quả tốt hơn so với các bác sĩ chẩn đoán bệnh bằng hình ảnh. Các nhà nghiên cứu từ Harvard và Stanford đã công bố một bài bác bỏ trên tạp chí Nature, cho biết việc thiếu thông tin chi tiết về các phương pháp và mã trong nghiên cứu của Google 'làm suy giảm giá trị khoa học của nó.'
Các nhà khoa học cũng đã chỉ trích Google vì quá mỏng manh về các hạn chế của các công cụ AI của họ nhằm vào các lĩnh vực khoa học như kỹ thuật vật liệu. Vào năm 2023, công ty cho biết khoảng 40 'vật liệu mới' đã được tổng hợp với sự trợ giúp từ một trong các hệ thống AI của họ, được gọi là GNoME. Tuy nhiên, một phân tích bên ngoài chỉ ra rằng không một vật liệu nào thực sự mới.
'Chúng ta sẽ không hiểu rõ được sức mạnh và hạn chế của các công cụ như 'cộng tác viên' của Google cho đến khi chúng trải qua đánh giá nghiêm ngặt, độc lập trên các lĩnh vực khoa học đa dạng,' Ashique KhudaBukhsh, giáo sư trợ lý về kỹ thuật phần mềm tại Viện Công nghệ Rochester, nói với TechCrunch. 'AI thường hoạt động tốt trong các môi trường kiểm soát nhưng có thể thất bại khi áp dụng ở quy mô lớn.'
Các quy trình phức tạp
Một phần thách thức trong việc phát triển các công cụ AI để hỗ trợ trong việc khám phá khoa học là dự đoán số lượng đồng cảm không lường được. AI có thể hữu ích trong các lĩnh vực cần có sự khám phá rộng lớn, giống như việc thu hẹp một danh sách khổng lồ các khả năng. Nhưng không rõ liệu AI có thể thực sự giải quyết các vấn đề ngoại vi mà dẫn đến những bước tiến khoa học.
'Chúng ta đã thấy suốt lịch sử rằng một số phát triển khoa học quan trọng nhất, như việc phát triển vắc xin ARN messenger, được thúc đẩy bởi trực giác con người và sự kiên trì trước sự hoài nghi,' KhudaBukhsh nói. 'AI, như nó đang hiện tại, có thể không phù hợp để tái tạo điều đó.'
Lana Sinapayen, một nghiên cứu viên AI tại Viện Nghiên cứu Khoa học Máy tính của Sony ở Nhật Bản, tin rằng các công cụ như Cộng tác viên AI của Google tập trung vào loại công việc khoa học không đúng đắn.
Sinapayen nhận thấy một giá trị thực sự trong AI có thể tự động hóa các công việc kỹ thuật khó khăn hoặc nhàm chán, như tổng hợp văn học học thuật mới hoặc định dạng công việc để phù hợp với yêu cầu đơn xin hỗ trợ tài trợ. Nhưng không có nhiều yêu cầu trong cộng đồng khoa học đối với một Cộng tác viên AI tạo ra giả thuyết, cô nói - một công việc mà nhiều nhà nghiên cứu cảm thấy thỏa mãn trí tuệ từ đó.
'Với nhiều nhà khoa học, bao gồm cả tôi, tạo giả thuyết là phần thú vị nhất của công việc,' Sinapayen nói với TechCrunch. 'Tại sao tôi muốn ký giao việc thú vị của mình cho một máy tính, và sau đó bản thân tôi chỉ còn lại công việc khó khăn để tự thực hiện? Nói chung, nhiều nhà nghiên cứu về công nghệ AI dường như hiểu lầm về lí do tại sao con người làm những gì họ làm, và kết quả là chúng ta có đề xuất cho các sản phẩm tự động hóa chính phần mà chúng ta nhận niềm vui từ đó.'
Beery lưu ý rằng thường bước khó nhất trong quá trình khoa học là thiết kế và triển khai các nghiên cứu và phân tích để xác minh hoặc phủ định một giả thuyết - điều mà không nhất thiết là khả thi đối với các hệ thống AI hiện tại. AI không thể sử dụng các công cụ vật lý để thực hiện thí nghiệm, tất nhiên, và thường xuyên thể hiện kém hiệu quả hơn trên các vấn đề mà dữ liệu hạn chế vô cùng.
'Hầu hết các nghiên cứu không thể được thực hiện hoàn toàn ảo - thường xuyên có một phần không thể bỏ qua của quá trình khoa học là vật lý, như thu thập dữ liệu mới và tiến hành thí nghiệm trong phòng thí nghiệm,' Beery nói. 'Một hạn chế lớn của các hệ thống [như Cộng tác viên AI của Google] so với quá trình khoa học thực sự, nhất định giới hạn khả năng sử dụng của nó, là ngữ cảnh về phòng thí nghiệm và nhà nghiên cứu sử dụng hệ thống và mục tiêu nghiên cứu cụ thể của họ, công việc trước đây của họ, bộ kỹ năng của họ và tài nguyên mà họ có truy cập vào.'
Rủi ro của AI
Các hạn chế kỹ thuật và rủi ro của AI - như xu hướng ảo tưởng - cũng khiến những nhà khoa học đề phòng việc ủng hộ nó trong công việc nghiêm túc.
KhudaBukhsh lo sợ rằng công cụ AI có thể đơn giản chỉ tạo ra tiếng ồn trong văn học khoa học, không nâng cao tiến triển.
'Đó đã là vấn đề. Một nghiên cứu gần đây đã phát hiện ra rằng 'khoa học rác' được tạo ra bởi AI đang tràn ngập Google Scholar, công cụ tìm kiếm văn học học thuật miễn phí của Google.
'Nghiên cứu được tạo ra bởi AI, nếu không được giám sát cẩn thận, có thể làm tràn bờ lĩnh vực khoa học với các nghiên cứu chất lượng thấp hoặc thậm chí là nghiên cứu dối lừa, làm cho quá trình xem xét cộng đồng bị quá tải,' KhudaBukhsh nói. 'Quá trải qua quá trình xem xét cộng đồng đã là một thách thức trong các lĩnh vực như khoa học máy tính, nơi các hội nghị hàng đầu đã chứng kiến sự tăng lên một cách mạnh mẽ trong số bài báo dự thi.'
Ngay cả các nghiên cứu thiết kế tốt cũng có thể bị ảnh hưởng bởi AI không gian cách hành vi, Sinapayen nói. Mặc dù cô thích ý tưởng về một công cụ có thể hỗ trợ bài viết tổng hợp văn học và tổng hợp, Sinapayen nói cô sẽ không tin AI hiện nay có thể thực hiện công việc đó một cách tin cậy.
'Đó là những công việc mà nhiều công cụ hiện tại đang tuyên bố có thể làm, nhưng đó không phải là công việc mà tôi cá nhân thấy đủ tin cậy để để lại cho AI hiện tại,' Sinapayen nói, thêm rằng cô phản đối cách mà nhiều hệ thống AI hiện nay được đào tạo và lượng năng lượng chúng tiêu thụ. 'Ngay cả khi tất cả các vấn đề đạo đức [...] được giải quyết, AI hiện tại không đủ tin cậy đối với tôi để đặt công việc của mình dựa trên kết quả của chúng.'