Trong khi nhiều CEO công nghệ đưa ra những dự đoán lạc quan về trí tuệ nhân tạo, một số nhà khoa học hàng đầu lại đang cố gắng đưa cuộc tranh luận về AGI trở lại thực tế với những câu hỏi thẳng thắn.
Trong một bữa tối gần đây với các doanh nhân ở San Francisco, một câu hỏi đơn giản đã tạo nên bầu không khí căng thẳng. Đó chỉ là câu hỏi liệu AI hiện tại có thể đạt được trí tuệ giống con người (AGI) hay thậm chí vượt qua không.
Đây là một chủ đề gây tranh cãi hơn nhiều người tưởng.
Năm 2025, không thiếu các CEO công nghệ đưa ra những dự đoán lạc quan về cách các mô hình ngôn ngữ lớn (LLM) – công nghệ đằng sau các chatbot như ChatGPT và Gemini – có thể đạt được trí tuệ ngang tầm hoặc thậm chí vượt qua con người trong tương lai gần. Các lãnh đạo này cho rằng AI có năng lực cao sẽ mang lại những lợi ích xã hội rộng lớn và phân phối rộng rãi.
Dario Amodei, CEO của Anthropic, đã viết trong một bài luận rằng AI cực kỳ mạnh mẽ có thể xuất hiện sớm nhất vào năm 2026 và “thông minh hơn người đoạt giải Nobel trong hầu hết các lĩnh vực liên quan”. Trong khi đó, CEO của OpenAI Sam Altman gần đây tuyên bố công ty của ông biết cách xây dựng AI “siêu thông minh” và dự đoán nó có thể “đẩy nhanh đáng kể các khám phá khoa học”.
Tuy nhiên, không phải ai cũng bị thuyết phục bởi những tuyên bố lạc quan này.

Các nhà lãnh đạo AI khác nghi ngờ rằng LLM hiện tại có thể đạt được AGI – chứ đừng nói đến siêu trí tuệ – nếu không có những đổi mới đột phá. Những nhà lãnh đạo này trước đây thường giữ thái độ thận trọng, nhưng gần đây nhiều người đã bắt đầu lên tiếng.
Trong một bài viết tháng này, Thomas Wolf, đồng sáng lập và giám đốc khoa học của Hugging Face, gọi một số phần trong tầm nhìn của Amodei là “ảo tưởng trong trường hợp tốt nhất”. Dựa trên kiến thức từ nghiên cứu tiến sĩ về vật lý thống kê và lượng tử, Wolf cho rằng những đột phá cấp giải Nobel không đến từ việc trả lời các câu hỏi đã biết – điều mà AI hiện nay giỏi – mà từ việc đặt ra những câu hỏi mà chưa ai nghĩ tới.
Theo quan điểm của Wolf, các LLM hiện nay chưa đủ khả năng làm điều đó.
“Tôi rất muốn thấy ‘mô hình Einstein’ này, nhưng chúng ta cần đi sâu vào chi tiết làm thế nào để đạt được điều đó,” Wolf nói với TechCrunch trong một cuộc phỏng vấn. “Đó là nơi mọi thứ bắt đầu trở nên thú vị.”
Wolf cho biết ông viết bài này vì cảm thấy có quá nhiều hype về AGI, và không đủ đánh giá nghiêm túc về cách thực sự đạt được nó. Ông cho rằng, theo tình hình hiện tại, có khả năng thực sự là AI sẽ biến đổi thế giới trong tương lai gần, nhưng không đạt được trí tuệ cấp độ con người hoặc siêu trí tuệ.
Phần lớn giới AI đã bị cuốn hút bởi lời hứa của AGI. Những người không tin điều này có thể xảy ra thường bị gắn mác “chống công nghệ”, hoặc là những người cay đắng và thiếu thông tin.
Một số người có thể coi Wolf là người bi quan vì quan điểm này, nhưng Wolf tự coi mình là một “người lạc quan có hiểu biết” – người muốn thúc đẩy AI tiến lên mà không mất đi sự nắm bắt thực tế. Chắc chắn, ông không phải là nhà lãnh đạo AI duy nhất có dự đoán thận trọng về công nghệ này.
CEO của Google DeepMind Demis Hassabis được cho là đã nói với nhân viên rằng, theo ý kiến của ông, ngành công nghiệp có thể mất đến một thập kỷ để phát triển AGI – lưu ý rằng có rất nhiều nhiệm vụ mà AI đơn giản là không thể làm được ngày nay. Yann LeCun, Giám đốc Khoa học AI của Meta, cũng bày tỏ nghi ngờ về tiềm năng của LLM. Phát biểu tại Nvidia GTC vào thứ Ba, LeCun nói rằng ý tưởng cho rằng LLM có thể đạt được AGI là “vô nghĩa”, và kêu gọi các kiến trúc hoàn toàn mới để làm nền tảng cho siêu trí tuệ.
Kenneth Stanley, cựu nhà nghiên cứu hàng đầu của OpenAI, là một trong những người đang đi sâu vào chi tiết về cách xây dựng AI tiên tiến với các mô hình hiện tại. Hiện ông là giám đốc điều hành tại Lila Sciences, một startup mới đã huy động được 200 triệu USD vốn đầu tư mạo hiểm để mở khóa đổi mới khoa học thông qua các phòng thí nghiệm tự động.
Stanley dành thời gian của mình để cố gắng trích xuất các ý tưởng sáng tạo, độc đáo từ các mô hình AI, một lĩnh vực con của nghiên cứu AI gọi là open-endedness. Lila Sciences nhắm đến việc tạo ra các mô hình AI có thể tự động hóa toàn bộ quy trình khoa học, bao gồm cả bước đầu tiên – đưa ra những câu hỏi và giả thuyết thực sự tốt có thể dẫn đến các đột phá.
“Tôi ước gì mình đã viết bài luận [của Wolf], bởi vì nó thực sự phản ánh cảm nhận của tôi,” Stanley nói trong một cuộc phỏng vấn với TechCrunch. “Điều [ông ấy] nhận thấy là việc có kiến thức và kỹ năng cực kỳ cao không nhất thiết dẫn đến việc có những ý tưởng thực sự độc đáo.”
Stanley tin rằng sáng tạo là một bước quan trọng trên con đường dẫn đến AGI, nhưng lưu ý rằng việc xây dựng một mô hình AI “sáng tạo” dễ nói hơn làm.
Những người lạc quan như Amodei chỉ ra các phương pháp như mô hình AI “lý luận”, sử dụng nhiều năng lực tính toán hơn để kiểm tra tính chính xác của công việc và trả lời chính xác một số câu hỏi nhất định một cách nhất quán hơn, như bằng chứng cho thấy AGI không quá xa vời. Tuy nhiên, việc đưa ra các ý tưởng và câu hỏi độc đáo có thể đòi hỏi một loại trí thông minh khác, Stanley nói.
“Nếu bạn suy nghĩ về nó, lý luận gần như đối lập với [sáng tạo],” ông nói thêm. “Các mô hình lý luận nói: ‘Đây là mục tiêu của vấn đề, hãy đi thẳng đến mục tiêu đó,’ điều này về cơ bản ngăn bạn trở nên cơ hội và nhìn thấy những thứ ngoài mục tiêu đó, để bạn có thể phân kỳ và có nhiều ý tưởng sáng tạo.”
Để thiết kế các mô hình AI thực sự thông minh, Stanley gợi ý rằng chúng ta cần phải tái tạo thuật toán về khả năng cảm nhận chủ quan của con người đối với những ý tưởng mới đầy hứa hẹn. Các mô hình AI hiện nay hoạt động khá tốt trong các lĩnh vực học thuật có câu trả lời rõ ràng, như toán học và lập trình. Tuy nhiên, Stanley chỉ ra rằng việc thiết kế một mô hình AI cho các nhiệm vụ chủ quan hơn đòi hỏi sự sáng tạo, không nhất thiết có câu trả lời “đúng”, là khó khăn hơn nhiều.
“Mọi người né tránh [tính chủ quan] trong khoa học – từ này gần như độc hại,” Stanley nói. “Nhưng không có gì ngăn cản chúng ta xử lý tính chủ quan [theo thuật toán]. Nó chỉ là một phần của dòng dữ liệu.”
Stanley nói rằng ông vui mừng khi lĩnh vực open-endedness đang nhận được nhiều sự chú ý hơn, với các phòng thí nghiệm nghiên cứu chuyên dụng tại Lila Sciences, Google DeepMind và startup AI Sakana đang làm việc trên vấn đề này. Ông bắt đầu thấy nhiều người nói về sự sáng tạo trong AI, nhưng ông nghĩ rằng còn rất nhiều việc phải làm.
Wolf và LeCun có lẽ sẽ đồng ý. Có thể gọi họ là những người theo chủ nghĩa hiện thực AI: các nhà lãnh đạo AI tiếp cận AGI và siêu trí tuệ với những câu hỏi nghiêm túc, thực tế về tính khả thi của nó. Mục tiêu của họ không phải là phủ nhận những tiến bộ trong lĩnh vực AI. Thay vào đó, họ muốn khởi động cuộc thảo luận tổng thể về những gì đang ngăn cách giữa các mô hình AI hiện nay và AGI – cũng như siêu trí tuệ – và tìm cách vượt qua những rào cản đó.
Chúng ta nên cổ vũ những người như Wolf và LeCun, những người đang hạ nhiệt mức độ hype quá cao về AI, mang cuộc thảo luận về AI quay trở lại thực tế và tập trung vào giải quyết những thách thức thực sự để đạt được AI cao cấp trong tương lai.