AMD Tuyên Chiến NVidia Trong Mảng Chip AI

AMD

Trong một thông báo gần đây, AMD đã công bố sẽ ra mắt phiên bản GPU Tiên Phong của họ mang tên mi300x vào cuối năm nay. Thông tin này được xem như một lời tuyên chiến với đối thủ gờm trong ngành, Nvidia, người hiện đang chiếm lĩnh đến 80% thị trường chip AI.

Từ khi trở thành một xu hướng công nghệ mới, AI đã khiến GPU trở thành mục tiêu săn đón của các công ty công nghệ hàng đầu như OpenAI để phát triển các dự án AI tiên tiến như chatbot thông minh. Các chuyên gia cho rằng, nếu chiếc chip AI do AMD sản xuất được lựa chọn bởi các nhà phát triển AI và nhà sản xuất máy chủ, nó có thể mở ra một thị trường rộng lớn với tiềm năng cho AMD.

AMD đã khẳng định đội đỏ của họ dự đoán thị trường cho các thiết bị gia tốc AI dành cho các trung tâm dữ liệu sẽ tăng từ khoảng 30 tỷ đô la vào năm nay với tốc độ tăng trưởng hàng năm lên tới 30%. Đồng thời, người ta hy vọng con số này có thể lên tới hơn 150 tỷ đô la vào năm 2027.

Mặc dù AMD chưa công bố giá bán cho sản phẩm chip AI của mình, nhưng việc này có thể tạo ra áp lực cạnh tranh về giá cho GPU của Nvidia. Ví dụ, dòng chip h100 của Nvidia hiện có giá từ 30.000 đô la trở lên. Điều này có thể giúp giảm chi phí cho các ứng dụng AI tổng quát, đặc biệt khi việc huấn luyện AI thường đòi hỏi một ngân sách đầu tư đáng kể.

AMD tuyên bố rằng chiếc mi300x mới và kiến trúc cdn của nó được thiết kế cho các mô hình ngôn ngữ lớn và các mô hình AI tiên tiến khác, với khả năng sử dụng bộ nhớ lên đến 192 GB. Mi300x có thể hỗ trợ các mô hình AI lớn hơn nhiều so với các chip AI hiện có trên thị trường. Trong khi đó, GPU h100 của Nvidia chỉ hỗ trợ bộ nhớ tối đa là 120GB.

Xem thêm  Hàng loạt công ty công nghệ đang tháo chạy khỏi Trung Quốc

AMD đã kiểm chứng hiệu suất của chip 300x bằng cách chạy thử trên mô hình có 40 tỷ tham số, gọi là mô hình GDP của OpenAI có 175 tỷ tham số. Legend – một chuyên gia trong ngành – nhận xét rằng kích thước của mô hình ngôn ngữ ngày càng lớn hơn và bạn cần nhiều GPU để chạy các mô hình lớn nhất hiện nay.

AMD cũng cho biết họ sẽ cung cấp công nghệ Invenid Aker (tạm dịch là kiến trúc Vô cực), kết hợp sức mạnh của 8 bộ gia tốc mi300x trong cùng một hệ thống. Trước đó, Nvidia và Google cũng đã phát triển các hệ thống tương tự bằng cách kết hợp 8 GPU trở lên trong một hộp thiết bị duy nhất cho các ứng dụng AI.

Một lý do khiến các nhà phát triển AI ưa thích chip Nvidia trước đây là do hãng này sở hữu gói công cụ QR (Quick Response), cho phép các nhà phát triển truy cập các tính năng phần cứng cốt lõi của chip để cạnh tranh với đối thủ AMD. Tuy nhiên, AMD cũng đã phát triển một bộ công cụ riêng cho AI có tên gọi là “về phía nvda”, nhờ sự trỗi dậy của AI đã khiến nhu cầu mua sắm các thiết bị phục vụ nghiên cứu tăng đột biến. Nhiều công ty này đã thu về mức doanh thu tăng trưởng mạnh so với nhiều năm trước đó. Theo CNBC, Nvidia đã trở thành hãng sản xuất chip đầu tiên trên thế giới đạt mức giá trị vốn hóa 1.000 tỷ đô la, qua đó gia nhập câu lạc bộ vốn hóa nghìn tỷ đô la cùng với Apple, Microsoft và Amazon.

Xem thêm  Thiên Tài Trung Quốc Trở Thành Giáo Sư Trẻ Tuổi Nhất Lịch Sử Harvard

Những con chip h100 của Nvidia được ưa chuộng bởi các công ty như Microsoft, Amazon và các startup về AI tạo sinh như OpenAI và Inscripta AI. Lý do là những con chip này có hiệu suất rất cao, giúp rút ngắn chi phí đào tạo AI hoặc đẩy nhanh tốc độ phát triển và ra mắt sản phẩm.

Gần đây nhất, Nvidia đã công bố dgx gh200, mẫu GPU xử lý AI mới nhất của hãng này. Nền tảng siêu điện toán AI này được tạo nên từ việc ghép nối 256 Siêu Chip với bộ nhớ dùng chung 144 cho phép xử lý được các tác vụ huấn luyện AI, sản sinh tiêu tốn hiệu năng nhất hiện nay. Mỗi siêu chip Greatha này là sự kết hợp giữa một CPU ARM72 nhân Greata, một GPU-Happer và 96GB bộ nhớ HBM-3 và 512GB bộ nhớ GDDR5X, trên cùng một chiếc với tổng cộng 200 tỷ bóng bán dẫn.

Q: AMD mi300x có khả năng cạnh tranh với GPU h100 của Nvidia không?

A: Có, AMD mi300x được thiết kế để hỗ trợ các mô hình AI lớn hơn nhiều so với GPU h100 của Nvidia. Điều này có thể tạo ra áp lực cạnh tranh về giá cho GPU AI của Nvidia và giảm chi phí cho các ứng dụng AI tổng quát.

Q: Công nghệ Invenid Aker của AMD có gì đặc biệt?

A: Invenid Aker là kiến trúc vô cực của AMD, kết hợp sức mạnh của 8 bộ gia tốc mi300x trong cùng một hệ thống. Điều này giúp cải thiện hiệu suất xử lý AI và tối ưu hóa quy trình công việc của các nhà phát triển AI.

Xem thêm  Chuyện gì đang xảy ra với ông trùm tiền số Binance?

Q: Tại sao Nvidia được ưa chuộng trong lĩnh vực AI?

A: Nvidia được ưa chuộng trong lĩnh vực AI vì hãng này sở hữu gói công cụ QR cho phép các nhà phát triển truy cập các tính năng phần cứng cốt lõi của chip để cạnh tranh với đối thủ. Đồng thời, GPU của Nvidia có hiệu suất cao và giúp rút ngắn thời gian đào tạo AI và tăng tốc độ phát triển sản phẩm.

Q: Hãng AMD có công cụ riêng cho AI không?

A: Có, AMD đã phát triển một bộ công cụ riêng cho AI có tên gọi là “về phía nvda”. Đây là một phản ứng đối với sự trỗi dậy của AI và tăng nhu cầu mua sắm các thiết bị phục vụ nghiên cứu trong lĩnh vực này.

AMD tuyên chiến với Nvidia trong mảng chip AI bằng việc ra mắt mi300x – phiên bản GPU Tiên Phong của họ. AMD hy vọng rằng sản phẩm mới này sẽ giúp họ có thế mạnh cạnh tranh trong thị trường chip AI ngày càng phát triển. Với công nghệ Invenid Aker và khả năng hỗ trợ các mô hình AI lớn, AMD đã chứng minh sự quyết tâm và tiềm năng của mình trong lĩnh vực này. Xem thêm tại Blogthuvi.com.