Chip H100 nghìn tỷ: Bí mật đằng sau "cơn địa chấn" của Nvidia trong lĩnh vực AI
Thông thường, các thành phần máy tính không được kỳ vọng sẽ biến đổi toàn bộ doanh nghiệp và ngành công nghiệp, nhưng một bộ xử lý đồ họa (GPU) mà Nvidia phát hành vào năm 2023 đã làm được điều đó. Chip H100 dành cho trung tâm dữ liệu đã giúp Nvidia tăng thêm hơn 1 nghìn tỷ đô la giá trị và biến công ty này thành một "ông vua" AI chỉ sau một đêm. Điều này cho thấy rằng sự náo nhiệt xung quanh trí tuệ nhân tạo tạo sinh (Generative AI) đang được chuyển thành doanh thu thực, ít nhất là đối với Nvidia và các nhà cung cấp quan trọng nhất của họ. Nhu cầu đối với H100 lớn đến mức một số khách hàng phải đợi tới sáu tháng mới nhận được nó.
Chip H100 của Nvidia là gì?
H100 - được đặt tên theo tiên phong trong khoa học máy tính Grace Hopper - là một bộ xử lý đồ họa. Nó là phiên bản mạnh mẽ hơn của chip thường thấy trong PC, giúp game thủ có trải nghiệm hình ảnh chân thực nhất. H100 đã được tối ưu hóa để xử lý khối lượng lớn dữ liệu và tính toán ở tốc độ cao, khiến nó trở nên hoàn hảo cho nhiệm vụ tốn nhiều năng lượng như huấn luyện mô hình AI.
Nvidia được thành lập năm 1993, tiên phong trong thị trường này với các khoản đầu tư từ gần hai thập kỷ trước, khi họ đặt cược rằng khả năng xử lý song song một ngày nào đó sẽ khiến chip của họ có giá trị trong các ứng dụng ngoài game.
Tại sao H100 đặc biệt?
Các nền tảng AI tổng hợp học cách hoàn thành các tác vụ như dịch văn bản, tóm tắt báo cáo và tổng hợp hình ảnh bằng cách đào tạo trên khối lượng lớn dữ liệu đã có sẵn. Chúng càng tiếp xúc với nhiều thông tin, chúng càng trở nên giỏi hơn trong việc nhận dạng giọng nói của con người hoặc viết thư xin việc. Chúng phát triển thông qua thử và sai, thực hiện hàng tỷ lần thử để đạt được thành thạo và hút hết một lượng lớn sức mạnh tính toán trong quá trình này.
Nvidia cho biết H100 nhanh hơn gấp bốn lần so với "người tiền nhiệm" A100 trong việc huấn luyện các mô hình ngôn ngữ lớn này (LLM) và nhanh hơn 30 lần khi trả lời yêu cầu của người dùng. Đối với các công ty đang chạy đua để huấn luyện LLM thực hiện các nhiệm vụ mới, lợi thế về hiệu suất đó có thể là yếu tố quan trọng.
Làm thế nào để Nvidia trở thành người dẫn đầu trong lĩnh vực AI?
Nvidia - công ty có trụ sở tại Santa Clara (California) là công ty hàng đầu thế giới về chip đồ họa, bộ phận của máy tính tạo ra hình ảnh bạn nhìn thấy trên màn hình. Những chip mạnh mẽ nhất trong số đó được xây dựng với hàng trăm lõi xử lý thực hiện nhiều luồng tính toán đồng thời, mô phỏng các hiện tượng vật lý phức tạp như bóng đổ và phản xạ.
Vào đầu những năm 2000, các kỹ sư của Nvidia nhận ra rằng họ có thể tổ chức lại bộ tăng tốc đồ họa cho các ứng dụng khác bằng cách chia nhỏ các nhiệm vụ thành các khối nhỏ hơn rồi xử lý chúng cùng một lúc. Chỉ hơn một thập kỷ trước, các nhà nghiên cứu AI đã phát hiện ra rằng công việc của họ cuối cùng có thể được thực hiện thực tế bằng cách sử dụng loại chip này.
Liệu Nvidia có đối thủ thực sự nào không?
Nvidia hiện đang nắm giữ khoảng 80% thị phần về bộ tăng tốc trong các trung tâm dữ liệu AI được vận hành bởi AWS của Amazon, Google Cloud của Alphabet và Azure của Microsoft. Những nỗ lực nội bộ của các công ty này trong việc xây dựng chip riêng và các sản phẩm cạnh tranh từ các nhà sản xuất chip như Advanced Micro Devices và Intel đến nay vẫn chưa tạo được nhiều dấu ấn trên thị trường bộ tăng tốc AI.
Làm thế nào Nvidia duy trì vị thế dẫn đầu trước các đối thủ?
Nvidia đã nhanh chóng cập nhật các sản phẩm của mình, bao gồm cả phần mềm hỗ trợ phần cứng, với tốc độ mà không một công ty nào khác có thể sánh được. Công ty cũng đã thiết kế nhiều hệ thống cụm giúp khách hàng mua H100 với số lượng lớn và triển khai nhanh chóng.
Mặc dù các chip như bộ xử lý Xeon của Intel có khả năng phân tích dữ liệu phức tạp hơn, nhưng chúng có ít lõi hơn và chậm hơn nhiều trong việc xử lý khối lượng thông tin khổng lồ thường được sử dụng để huấn luyện phần mềm AI. Doanh thu của mảng trung tâm dữ liệu của Nvidia đã tăng 81% lên 22 tỷ USD trong quý cuối năm 2023.
AMD và Intel cạnh tranh với Nvidia như thế nào?
AMD - nhà sản xuất chip đồ họa lớn thứ hai trên thế giới - đã công bố một phiên bản của dòng Instinct vào tháng 6 nhằm nhắm đến thị trường mà các sản phẩm của Nvidia thống trị. CEO của AMD - bà Lisa Su cho biết tại một sự kiện ở San Francisco rằng chip MI300X có nhiều bộ nhớ hơn để xử lý các khối lượng công việc cho AI tạo sinh. "Chúng ta vẫn đang ở giai đoạn rất, rất sớm trong vòng đời của AI", bà nói vào tháng 12.
Intel đang đưa các chip cụ thể cho khối lượng công việc AI ra thị trường nhưng thừa nhận rằng hiện tại, nhu cầu về chip đồ họa trung tâm dữ liệu đang tăng nhanh hơn so với các đơn vị xử lý vốn là thế mạnh của họ. Lợi thế của Nvidia không chỉ nằm ở hiệu suất phần cứng. Công ty đã phát minh ra CUDA - một ngôn ngữ cho chip đồ họa của họ cho phép chúng được lập trình cho loại công việc hỗ trợ các chương trình AI.
Nvidia có kế hoạch phát hành gì tiếp theo?
Cuối năm nay, H100 sẽ nhường chỗ cho "người kế nhiệm" H200, trước khi Nvidia thực hiện những thay đổi đáng kể hơn về thiết kế với model B100 trong tương lai. CEO Jensen Huang đã đóng vai trò như một đại sứ cho công nghệ này và tìm cách thu hút các chính phủ, cũng như các doanh nghiệp tư nhân, mua hàng sớm để tránh bị tụt hậu so với những người nắm bắt AI.
Nvidia cũng biết rằng một khi khách hàng chọn công nghệ của mình cho các dự án AI tạo sinh, công ty sẽ dễ dàng bán cho họ các bản nâng cấp hơn so với các đối thủ, từ đó hy vọng "giành" khách từ những công ty lớn khác.
Giang Nguyễn (Theo Bloomberg)
Comments