Sau khi DeepSeek “ra bài” mô hình AI tiết kiệm tài nguyên, nhiều người đồn rằng ngành AI sẽ bớt đổ tiền mua GPU. Tuy nhiên, a16z khẳng định các dự án AI vẫn đòi hỏi khối lượng lớn phần cứng, chỉ khác ở chỗ họ sẽ tối ưu cách sử dụng.
Anjney Midha (thường gọi tắt là Anj), thành viên ban giám đốc Mistral kiêm đối tác tại a16z, cho biết anh đã để mắt đến DeepSeek từ nửa năm trước, khi startup Trung Quốc này tung mô hình Coder V2, sánh vai cùng GPT4-Turbo của OpenAI trong tác vụ viết code.
Theo Midha, chuỗi nâng cấp nhanh chóng của DeepSeek dẫn đến R1 – mô hình open source thể hiện hiệu năng ấn tượng mà lại tiêu tốn ít tài nguyên. Điều này đã khiến giá cổ phiếu Nvidia chao đảo, do giới đầu tư lo sợ nhu cầu GPU suy giảm.
Song Midha không tin “cú nổ” DeepSeek sẽ khiến các “ông lớn” AI ngừng chi hàng tỷ USD cho trung tâm dữ liệu. “Chúng tôi sẽ làm được nhiều việc hơn với cùng lượng máy móc,” anh nói. Mistral, chẳng hạn, vẫn đầu tư khủng vào phần cứng, vì xem những cải tiến hiệu suất của DeepSeek như “kim chỉ nam” để tối ưu, chứ không phải lý do ngưng phát triển.

Nỗi lo “lỗi thời” khi OpenAI và Anthropic thu tiền tấn?
Hiện OpenAI và Anthropic huy động số vốn vượt xa Mistral. Nhưng Midha cho rằng Mistral giữ lợi thế khi chọn hướng open source, tận dụng nguồn đóng góp miễn phí từ cộng đồng. Trong khi đối thủ “giấu bài,” phải tự trả mọi chi phí nhân lực, thì Mistral được hưởng lực lượng kỹ sư toàn cầu sẵn sàng tham gia cải tiến.
Nhờ vậy, Mistral tuy không có “20 tỷ USD” nhưng lại có quy mô hạ tầng mở rộng, đủ mạnh để duy trì ưu thế “đứng đầu” về open source. Facebook (với Llama) hay OpenAI thì còn vướng mô hình phát triển đóng, hoặc phải rót hàng chục tỷ USD vào trung tâm dữ liệu.
Midha tiết lộ a16z từng tự mua lượng lớn GPU cho chương trình “Oxygen.” Đây là cách quỹ đầu tư chủ động “tiếp sức” danh mục AI. Nhu cầu đào tạo mô hình cực kỳ lớn, và khi sản phẩm AI ra mắt, khối lượng xử lý (inference) còn cao hơn.
“Chúng tôi đang quá tải đơn đăng ký,” Midha thừa nhận. “Ai cũng cần GPU để huấn luyện lẫn phục vụ người dùng cuối.” Điều này lý giải vì sao DeepSeek, dù tiết kiệm điện và chi phí, không đủ sức ngăn AI “ngốn” GPU.
OpenAI cũng không “giảm nhiệt”
Dự án “Stargate” mà OpenAI bắt tay SoftBank và Oracle, giá trị 500 tỷ USD, cho thấy OpenAI vẫn muốn mở rộng hạ tầng. DeepSeek chỉ giúp các mô hình dùng ít tài nguyên hơn, chứ không làm giảm mối thèm khát mở thêm data center.
Giới phân tích nhận định: tương lai AI giống như hạ tầng thiết yếu (tương tự điện hay internet). Quốc gia nào cũng khao khát “độc lập hạ tầng,” tránh phụ thuộc vào Trung Quốc. Midha nhấn mạnh đây là cơ hội cho Mistral (trụ sở Paris) lẫn mô hình “made in phương Tây,” phù hợp quy định của Mỹ hay NATO hơn là DeepSeek.
Dùng DeepSeek: Có đáng ngại?
Nhiều công ty không quá “sợ” DeepSeek. Họ có thể triển khai mô hình này trên server riêng, hoặc thuê Microsoft Azure Foundry, thay vì dùng hạ tầng của DeepSeek. Một số tên tuổi như Intel cựu CEO Pat Gelsinger thậm chí còn nói thẳng họ đang triển khai phiên bản DeepSeek R1 tùy biến.
Vì thế, Midha cười và nhắn nhủ: “Ai dư GPU thì đừng vội bỏ, cứ gửi qua Anj.” Bởi lẽ, GPU vẫn quý giá, ngay cả khi có mô hình tiết kiệm như DeepSeek.
Được ca ngợi là mô hình AI “siêu nhẹ,” DeepSeek giúp tăng hiệu suất, tiết kiệm chi phí. Nhưng theo a16z và Mistral, cuộc đua GPU không hề hạ nhiệt. Cái thay đổi là cách “nhồi nhét” công nghệ vào những con chip, rồi khai thác tối đa nguồn lực.
Open source có thể tạo khác biệt lớn, cho phép các startup ít tiền cạnh tranh cùng “gã khổng lồ” giàu tài nguyên. Cuối cùng, ai nắm nhiều GPU và biết tối ưu quy trình huấn luyện, triển khai mô hình vẫn là người nắm lợi thế.
Bối cảnh thị trường dậy sóng vì DeepSeek không đơn thuần khiến ngành “cắt giảm” chi tiêu. Thay vào đó, mọi bên vẫn tăng tốc đầu tư – chỉ có điều, họ đầu tư một cách thông minh hơn, tối ưu hơn, nhằm dẫn đầu cuộc đua AI. Dù ra sao, DeepSeek vẫn là lời cảnh tỉnh về tốc độ đổi mới công nghệ: nhanh, chất, và đầy bất ngờ.