Chip mới có tên gọi H200 sẽ vượt qua chip hàng đầu hiện tại của Nvidia là H100. Nâng cấp chính của chip mới nằm ở bộ nhớ băng thông cao hơn,ângcấpchipđểxửlýhệthốngtrítuệnhântạotốthơdit gai tre đây là một trong những phần đắt đỏ nhất của chip và quyết định tốc độ xử lý dữ liệu.
Nvidia hiện độc quyền thị trường chip AI và cung cấp chip cho dịch vụ ChatGPT của OpenAI và nhiều dịch vụ AI tạo ra câu trả lời giống con người. Việc thêm bộ nhớ băng thông cao hơn và kết nối nhanh hơn đến các yếu tố xử lý của chip có nghĩa là giúp các dịch vụ như ChatGPT có thể phản hồi nhanh hơn, theo Reuters.
H200 có 141 gigabyte (GB) bộ nhớ băng thông cao, tăng từ 80 GB so với chip H100 trước đó. Nvidia không tiết lộ nhà cung cấp bộ nhớ cho chip mới, nhưng Micron Technology cho biết vào tháng 9 rằng họ đang làm việc để trở thành nhà cung cấp cho Nvidia.
Nvidia tiết lộ thêm, dịch vụ web của Amazon, Google Cloud, Microsoft Azure và Oracle Cloud Infrastructure sẽ là những nhà cung cấp dịch vụ đám mây đầu tiên khai thác chip H200, ngoài ra còn có các nhà cung cấp dịch vụ đám mây AI chuyên nghiệp như CoreWeave, Lambda và Vultr.