
OpenAI tìm đường thoát phụ thuộc Nvidia: Cuộc đua chip suy luận AI bước vào giai đoạn quyết định
OpenAI và Nvidia: Khi mối quan hệ chiến lược xuất hiện vết nứt
OpenAI – công ty đứng sau ChatGPT – đang âm thầm tìm kiếm các giải pháp thay thế cho một số chip trí tuệ nhân tạo mới nhất của Nvidia, theo tiết lộ từ nhiều nguồn tin am hiểu vấn đề. Động thái này diễn ra từ năm ngoái và có thể làm phức tạp mối quan hệ giữa hai cái tên quyền lực nhất trong làn sóng bùng nổ AI toàn cầu.
Trong nhiều năm qua, Nvidia giữ vai trò thống trị tuyệt đối trong việc cung cấp GPU cho huấn luyện các mô hình AI quy mô lớn. Tuy nhiên, khi trọng tâm của ngành dần dịch chuyển sang suy luận AI (inference) – giai đoạn mô hình đã huấn luyện phản hồi yêu cầu của người dùng – những hạn chế về phần cứng bắt đầu bộc lộ.
Chiến lược mới của OpenAI tập trung vào việc tối ưu hóa tốc độ và hiệu quả suy luận, đặc biệt với các ứng dụng yêu cầu phản hồi gần như tức thời, thay vì chỉ tập trung vào năng lực huấn luyện truyền thống.
Thách thức lớn nhất với vị thế thống trị của Nvidia
Việc OpenAI và một số công ty AI khác tìm kiếm chip suy luận chuyên biệt được xem là thách thức đáng kể đối với Nvidia, nhất là trong bối cảnh hai bên từng đàm phán một thương vụ đầu tư quy mô lớn.
Tháng 9 năm ngoái, Nvidia tuyên bố có kế hoạch đầu tư tới 100 tỷ USD vào OpenAI, đổi lại cổ phần trong công ty và vai trò cung cấp nguồn lực phần cứng then chốt. Tuy nhiên, theo Reuters, các cuộc đàm phán này đã kéo dài nhiều tháng thay vì hoàn tất trong vài tuần như dự kiến ban đầu.
Trong thời gian đó, OpenAI đã chủ động ký kết các thỏa thuận với AMD và các nhà cung cấp khác để phát triển GPU cạnh tranh. Lộ trình sản phẩm AI liên tục thay đổi cũng khiến nhu cầu tài nguyên tính toán của OpenAI biến động, góp phần làm chậm tiến trình đàm phán với Nvidia.
CEO Nvidia Jensen Huang sau đó đã bác bỏ mọi đồn đoán về căng thẳng, gọi các thông tin này là “vô lý” và khẳng định Nvidia vẫn cam kết đầu tư mạnh mẽ vào OpenAI. Cả hai bên đều công khai nhấn mạnh rằng Nvidia hiện vẫn cung cấp phần lớn năng lực suy luận cho OpenAI với hiệu năng trên mỗi đô la được đánh giá cao nhất.
Vì sao OpenAI không hoàn toàn hài lòng với GPU Nvidia?
Theo bảy nguồn tin, OpenAI cho rằng một số chip của Nvidia chưa đáp ứng tối ưu về tốc độ phản hồi đối với các tác vụ suy luận cụ thể, đặc biệt là phát triển phần mềm và AI giao tiếp với hệ thống khác.
Một nguồn tin tiết lộ OpenAI đang tìm kiếm phần cứng mới có thể đáp ứng khoảng 10% nhu cầu suy luận trong tương lai, thay vì thay thế hoàn toàn Nvidia. Điều này cho thấy chiến lược đa dạng hóa, không phải “chia tay” dứt khoát.
Vấn đề cốt lõi nằm ở bộ nhớ. Suy luận AI yêu cầu truy xuất dữ liệu liên tục từ bộ nhớ, nhiều hơn so với huấn luyện. GPU của Nvidia và AMD chủ yếu dựa vào bộ nhớ ngoài, khiến độ trễ tăng và làm chậm trải nghiệm người dùng.
Ngược lại, các chip tích hợp SRAM dung lượng lớn trực tiếp trên silicon có thể mang lại lợi thế đáng kể về tốc độ. Đây chính là hướng đi mà OpenAI đang theo đuổi.
Codex và bài toán tốc độ phản hồi
Tại OpenAI, hạn chế phần cứng đặc biệt rõ ràng ở Codex – công cụ tạo mã lập trình đang được công ty đẩy mạnh thương mại hóa. Theo các nguồn tin nội bộ, một số điểm yếu của Codex được cho là bắt nguồn từ nền tảng GPU của Nvidia, nhất là khi người dùng yêu cầu phản hồi nhanh và liên tục.
CEO Sam Altman từng thừa nhận rằng khách hàng sử dụng các mô hình lập trình “rất coi trọng tốc độ”, và OpenAI sẽ đáp ứng nhu cầu này thông qua hợp tác với Cerebras. Tuy nhiên, ông cũng nhấn mạnh rằng tốc độ cực cao không phải ưu tiên bắt buộc đối với người dùng ChatGPT phổ thông.
Cerebras, Groq và cuộc đua chip suy luận
Từ năm ngoái, OpenAI đã thảo luận với các startup như Cerebras và Groq, những công ty phát triển chip tập trung vào bộ nhớ SRAM tích hợp lớn. Cerebras đã đạt được thỏa thuận thương mại với OpenAI, trong khi các cuộc đàm phán với Groq bị gián đoạn sau khi Nvidia ký thỏa thuận cấp phép công nghệ trị giá khoảng 20 tỷ USD với Groq.
Nvidia cũng tích cực chiêu mộ nhân sự chủ chốt từ Groq, được giới chuyên môn đánh giá là bước đi nhằm củng cố năng lực cạnh tranh trong bối cảnh ngành AI chuyển dịch nhanh chóng sang suy luận thời gian thực.
Trong khi đó, các đối thủ như Google (TPU) và Anthropic đang hưởng lợi từ việc sử dụng chip tự thiết kế, vốn được tối ưu riêng cho suy luận AI, tạo ra áp lực cạnh tranh ngày càng lớn đối với Nvidia.
Nvidia vẫn tiến bước, nhưng thế độc quyền không còn tuyệt đối
Dù vẫn giữ vị trí trung tâm trong hệ sinh thái AI toàn cầu, Nvidia đang đối mặt với thực tế rằng kỷ nguyên “một mình một ngựa” trong chip AI có thể sắp kết thúc. Khi suy luận AI trở thành mặt trận cạnh tranh chính, những giải pháp phần cứng chuyên biệt, chi phí thấp và độ trễ thấp sẽ ngày càng được ưa chuộng.
OpenAI, với quy mô người dùng khổng lồ và yêu cầu kỹ thuật khắt khe, đang trở thành chất xúc tác thúc đẩy làn sóng đổi mới tiếp theo của ngành chip AI.
Hỏi – Đáp nhanh về OpenAI và Nvidia
OpenAI có ngừng sử dụng chip Nvidia không?
Không. OpenAI vẫn phụ thuộc lớn vào Nvidia, nhưng đang tìm giải pháp bổ sung.
Vấn đề lớn nhất của GPU Nvidia trong suy luận AI là gì?
Độ trễ bộ nhớ do phụ thuộc vào bộ nhớ ngoài.
Vì sao OpenAI quan tâm đến chip SRAM tích hợp?
Giúp tăng tốc suy luận và giảm thời gian phản hồi cho người dùng.
Cerebras có vai trò gì trong chiến lược mới của OpenAI?
Cung cấp phần cứng suy luận tốc độ cao cho các ứng dụng cụ thể.
Nvidia có bị đe dọa vị thế thống trị không?
Trong ngắn hạn thì chưa, nhưng áp lực cạnh tranh đang gia tăng rõ rệt.
Cuộc đua chip AI sẽ đi theo hướng nào?
Chuyển dần từ GPU đa năng sang chip chuyên biệt cho suy luận.
Sự dịch chuyển từ huấn luyện sang suy luận AI có thể định hình lại toàn bộ ngành chip. Doanh nghiệp và nhà đầu tư nên theo sát các công ty phát triển phần cứng chuyên biệt, cũng như mối quan hệ giữa OpenAI, Nvidia và các đối thủ mới nổi.


