Thế nhưng, trọng tâm thực sự sẽ là liệu việc Mỹ mở rộng các biện pháp hạn chế bán chip AI cao cấp Nvidia (Mỹ) sang Trung Quốc có thể làm chậm bước tiến đó hay không.
Kết quả cũng sẽ là phép thử lớn cho cuộc phục hồi do AI hỗ trợ đã giúp thúc đẩy thị trường chứng khoán Mỹ trong năm nay, với chỉ số bán dẫn Philadelphia (SOX) tăng gần 50% vào 2023.
Kyle Rodda, nhà phân tích của hãng Capital.com, cho biết: “Có một giả định cơ bản rằng Nvidia thống trị hoàn toàn trên thị trường, vì vậy bất cứ điều gì ảnh hưởng đến nhận thức đó, có thể do hiệu quả kinh doanh hay rủi ro với một số thị trường nhất định, thì sẽ làm giảm bớt sự hứng thú”.
Hôm 17.10, chính quyền Biden đã cấm bán chip H800 và A800 cho Trung Quốc. Đây là hai chip AI mà Nvidia từng tạo ra dành cho cho Trung Quốc sau những hạn chế xuất khẩu sang nước này vào năm ngoái của Mỹ. Trung Quốc là thị trường lớn thứ ba của Nvidia và chiếm hơn 1/5 doanh thu công ty.
Nvidia cho biết không mong đợi bất kỳ tác động nào từ việc hạn chế này trong thời gian tới. Tuy nhiên, cổ phiếu của Nvidia đã chạm mức thấp trong gần 5 tháng vào tháng 10 sau khi một bản tin từ Wall Street Journal cho biết đơn hàng trị giá 5 tỉ USD của hãng sang Trung Quốc có thể phải hủy bỏ.
Đợt tăng giá thần tốc vào đầu năm nay đưa Nvidia trở thành công ty chip ngàn tỉ USD đầu tiên. Thế nhưng, cổ phiếu của Nvidia đã giảm hơn 12% trong khoảng thời gian từ tháng 8 đến tháng 10, cho thấy các nhà đầu tư khó tính hơn khi mối lo ngại về Trung Quốc ngày càng gia tăng.
Nvidia hiện giao dịch ở mức gấp 31 lần ước tính thu nhập trong 12 tháng tới, so với tỷ lệ giá trên thu nhập của đối thủ AMD là 33.
Trước các biện pháp hạn chế xuất khẩu mới nhất đến Trung Quốc, nhu cầu về chip Nvidia H800, phiên bản chậm hơn chip AI hàng đầu của hãng, đã vượt xa các đối thủ vì vẫn tốt hơn các lựa chọn thay thế.
Các nhà phân tích tiết lộ Nvidia hiện đã đưa ra ba loại chip cho thị trường Trung Quốc và có kế hoạch sớm phát hành chúng.
Nhà phân tích Stacy Rasgon của hãng Bernstein nhận xét trong một ghi chú trong tháng này: “Dù các giải pháp trước đây chỉ yêu cầu những thay đổi nhỏ về băng thông bộ nhớ của các bộ phận, nhưng lần này, bản chất của các biện pháp kiểm soát từ Mỹ buộc hiệu suất tổng thể giảm mạnh. Tuy nhiên, các chip Nvidia có thể vẫn hấp dẫn với khách hàng Trung Quốc, đồng thời dễ chấp nhận hơn với các nhà quản lý Mỹ”.
Nvidia dự kiến sẽ báo cáo doanh thu tăng gần 173% trong quý 3/2023, theo các nhà phân tích do LSEG (Tập đoàn giao dịch chứng khoán London) thăm dò.
Phố Wall ước tính Nvidia sẽ dự báo doanh thu tăng hơn 195% trong quý 4/2023.
Hôm 14.11, Nvidia đã giới thiệu một loại chip AI hàng đầu mới có tên H200, đi kèm với bộ nhớ băng thông cao hơn và có thể giúp hãng duy trì vị trí dẫn đầu, bất kể chip MI300 sắp ra mắt của AMD. Nvidia cho biết H200 được triển khai vào năm sau với Amazon, Google và Oracle.
H200 sẽ vượt qua H100, bộ xử lý đồ họa (GPU) hàng đầu hiện nay của Nvidia. Nâng cấp chính ở H200 là tăng bộ nhớ băng thông cao (HBM), một trong những thành phần đắt nhất của chip quyết định khả năng xử lý dữ liệu nhanh chóng.
Theo Nvidia, sự ra đời của H200 sẽ tạo ra những bước nhảy vọt về hiệu suất, trong đó hãng nhấn mạnh đến khả năng suy luận của các mô hình AI dữ liệu lớn. Thử nghiệm với mô hình ngôn ngữ lớn Llama 2 của Meta Platforms với 70 tỈ tham số, H200 mang đến hiệu suất gần gấp đôi so với H100.
Nvidia cho biết H200 sẽ có khả năng sử dụng HBM3e, xử lý tốt hơn các tập dữ liệu lớn cần thiết để phát triển và triển khai AI.
Nvidia thống trị thị trường chip AI và đóng vai trò quan trọng cho ChatGPT của OpenAI cũng như nhiều dịch vụ generative AI phản hồi các truy vấn bằng văn bản giống con người. Việc HBM cao hơn và kết nối nhanh hơn với các bộ phận xử lý của chip đồng nghĩa các dịch vụ generative AI như vậy sẽ có thể đưa ra câu trả lời nhanh hơn.
Generative AI là một loại trí tuệ nhân tạo được lập trình để tự động tạo ra nội dung mới, như văn bản, hình ảnh, âm thanh và video. Nó khác với các hệ thống AI khác như máy học sâu (deep learning) hoặc học máy (machine learning) trong việc dự đoán kết quả từ dữ liệu đã có sẵn. Thay vì dựa trên dữ liệu huấn luyện, hệ thống generative AI có khả năng tự tạo ra dữ liệu mới và phong phú hơn.
H200 có HBM 141 GB, tăng từ 80 GB ở H100 trước đó. Nvidia không tiết lộ nhà cung cấp bộ nhớ trên chip H200, nhưng Micron Technology (Mỹ) nói vào tháng 9 rằng đang nỗ lực để trở thành nhà cung cấp cho Nvidia.
Nvidia cũng mua bộ nhớ từ Samsung Electronics và SK Hynix (Hàn Quốc). SK Hynix, hãng chip nhớ số 2 thế giới, cho biết vào tháng trước rằng chip AI đang giúp vực dậy doanh số bán hàng của họ.
H200 LÀ chip AI mạnh nhất thế giới hiện nay - Ảnh: Nvidia
Nhà phân tích Chris Caso của hãng Wolfe Research viết trong một ghi chú: “Nvidia trước đây chưa từng làm mới các GPU trung tâm dữ liệu. Vì vậy, điều này thể hiện thêm bằng chứng về việc công ty đang tăng tốc ra sản phẩm để đáp ứng các yêu cầu về hiệu suất và tăng trưởng của thị trường AI, mở rộng lợi thế cạnh tranh của họ”.
“Tốc độ ra mắt sản phẩm H200 được đẩy nhanh của công ty vào giữa năm 2024 có thể giúp công ty bảo vệ thị trường của mình. H200 đi kèm HBM có thể là GPU hiệu suất cao nhất trên thị trường, nâng cao khả năng cạnh tranh”, nhà phân tích Kunjan Sobhani của Bloomberg Intelligence cho biết.
Amazon Web Services, Google Cloud, Microsoft Azure và Oracle Cloud Infrastructure sẽ là những nhà cung cấp dịch vụ đám mây đầu tiên được cung cấp quyền truy cập vào H200, bên cạnh các nhà cung cấp đám mây AI đặc biệt như CoreWeave, Lambda và Vultr.
Các nhà phân tích của hãng Morningstar nhận định: “Có thể sự tăng trưởng mạnh mẽ của Nvidia sẽ khiến doanh thu từ Trung Quốc trở nên ít quan trọng hơn theo thời gian”.
Sơn Vân
Những tin mới hơn
Những tin cũ hơn