OpenAI vừa công bố một tác vụ mới trong ChatGPT, hứa hẹn hỗ trợ người dùng thực hiện “nghiên cứu chuyên sâu.” Không còn dừng ở câu trả lời tóm tắt, “deep research” mở ra khả năng phân tích dữ liệu phức tạp, kèm theo dẫn chứng và trích dẫn rõ ràng.
OpenAI tiếp tục “tiến hóa” nền tảng AI của mình, khi giới thiệu một “agent” mới mang tên deep research – nằm trong ChatGPT. Theo thông cáo từ hãng, công cụ này dành cho những người có nhu cầu phân tích, kiểm chứng kỹ lưỡng, thay vì chỉ cần câu trả lời tức thì.
Khác với ChatGPT thông thường, “deep research” cho phép người dùng tổng hợp thông tin từ nhiều nguồn, như website, cơ sở dữ liệu bên ngoài. Nó hứa hẹn hữu ích trong các lĩnh vực như tài chính, khoa học, chính sách, kỹ thuật, và thậm chí cho cả hoạt động mua sắm phức tạp (chẳng hạn ô tô, thiết bị điện tử…).
OpenAI cho biết “deep research” hiện cung cấp trên tài khoản ChatGPT Pro (giới hạn 100 truy vấn/tháng), sắp tới sẽ hỗ trợ gói Plus, Team, và cuối cùng là Enterprise. Đợt phát hành ban đầu mang tính thử nghiệm, giới hạn địa lý, và chưa ấn định lịch cho người dùng tại Anh, Thụy Sĩ hoặc Khu vực Kinh tế châu Âu (EEA).

Cách thức hoạt động
Khi chọn “deep research” trong giao diện soạn (composer), người dùng nhập câu hỏi, có thể đính kèm tệp tin hoặc bảng tính. ChatGPT sẽ mất từ 5 đến 30 phút để rà soát thông tin, sau đó gửi thông báo hoàn tất. Hiện bản trả lời chỉ ở dạng văn bản, nhưng OpenAI dự kiến bổ sung biểu đồ, ảnh minh họa, cùng cách tích hợp nguồn dữ liệu chuyên sâu trong tương lai.
Dự án này vận hành trên phiên bản đặc biệt của mô hình o3 – AI “lý luận” (reasoning) do OpenAI huấn luyện bằng phương pháp reinforcement learning (học tăng cường). Mô hình có khả năng duyệt web, đọc file PDF, xử lý Python, và nhúng biểu đồ ngay trong câu trả lời.
Tính chính xác gây tò mò
Tuy OpenAI cam kết mọi kết quả “deep research” đều minh bạch, đính kèm trích dẫn và tóm lược quá trình suy luận, giới phân tích vẫn nghi ngại. AI thường phạm lỗi “ảo tưởng” (hallucination) hoặc sai sót về dữ liệu, có thể nguy hiểm trong bối cảnh nghiên cứu chuyên sâu. Bản thân ChatGPT Search – tính năng duyệt web cũ của OpenAI – đã nhiều lần “đáp nhầm.”
Để cải thiện, OpenAI tuyên bố “deep research” thử nghiệm trên bộ câu hỏi khó Humanity’s Last Exam. Kết quả, mô hình o3 đạt 26,6% độ chính xác – cao hơn nhiều so với Grok-2 hay GPT-4o. Dù vậy, con số này vẫn chưa đủ gây ấn tượng trong bối cảnh chuyên môn đòi hỏi sai số rất thấp.
Hướng đến “phong cách học thuật”?
OpenAI thừa nhận “deep research” chưa hoàn hảo. Họ cảnh báo công cụ có thể nhầm lẫn giữa nguồn đáng tin và tin đồn, đôi khi bỏ sót phần “chưa chắc chắn.” Tuy nhiên, đây vẫn là bước tiến so với các chatbot không trích nguồn. Vấn đề còn lại là: Liệu người dùng có chịu kiểm chứng lại hay không?
Dù sao, động thái mới này cho thấy AI đang được OpenAI đẩy lên tầm “trợ lý phân tích,” thay vì chỉ hỗ trợ thông tin đơn giản. So với Google – từng thông báo tính năng nghiên cứu chuyên sâu nhưng chưa cụ thể – OpenAI tỏ ra quyết liệt, bổ sung luôn vào ChatGPT.
Đối với giới chuyên gia, “deep research” có thể trở thành cột mốc thử nghiệm giá trị của ChatGPT trong môi trường nghiên cứu thực thụ. Nếu kết quả “đủ tin cậy,” công cụ hứa hẹn tiết kiệm thời gian cho game thủ, doanh nghiệp hay nhà khoa học cần lục lọi khối dữ liệu khổng lồ. Nếu không, nó sẽ là bài học về giới hạn của AI hiện tại, và chặng đường còn xa để AI thay thế con người trong nhiệm vụ đánh giá thông tin phức tạp.
Cho đến khi tính năng này mở rộng và tự hoàn thiện, AI vẫn cần sự cẩn trọng của người dùng. Bởi sai lầm dù nhỏ cũng có thể dẫn đến kết luận sai, đặc biệt với các dự án yêu cầu tính chính xác. Người dùng nên xem “deep research” như đối tác hơn là “chuyên gia tuyệt đối,” luôn giữ khả năng phản biện và xác thực chéo trước khi “niềm tin bị trao trọn” cho AI.