BitcoinWorld Chip AI của Google ra mắt: TPU 8t và 8i thách thức sự thống trị của Nvidia Trong một động thái chiến lược nhằm chiếm lĩnh thêm thị phần trong lĩnh vực trí tuệ nhân tạo đang bùng nổBitcoinWorld Chip AI của Google ra mắt: TPU 8t và 8i thách thức sự thống trị của Nvidia Trong một động thái chiến lược nhằm chiếm lĩnh thêm thị phần trong lĩnh vực trí tuệ nhân tạo đang bùng nổ

Chip AI của Google ra mắt: TPU 8t và 8i thách thức sự thống trị của Nvidia

2026/04/23 02:50
Đọc trong 10 phút
Đối với phản hồi hoặc thắc mắc liên quan đến nội dung này, vui lòng liên hệ với chúng tôi qua crypto.news@mexc.com

BitcoinWorld

Google AI Chips Unleashed: TPU 8t và 8i ra mắt để thách thức sự thống trị của Nvidia

Trong một động thái chiến lược nhằm chiếm lĩnh thêm thị phần trong thị trường trí tuệ nhân tạo đang bùng nổ, Google Cloud đã công bố ra mắt thế hệ chip AI tùy chỉnh thứ tám vào thứ Tư, ngày 30 tháng 4, tại San Francisco, CA. Công ty đã tiết lộ một cách tiếp cận phân nhánh, giới thiệu hai chip chuyên dụng: TPU 8t dành cho việc huấn luyện mô hình AI và TPU 8i dành cho khối lượng công việc suy luận. Sự phát triển này đánh dấu bước tiến quan trọng nhất của Google nhằm cung cấp cho doanh nghiệp một giải pháp thay thế mạnh mẽ, tiết kiệm chi phí so với GPU chuẩn công nghiệp của Nvidia, mặc dù gã khổng lồ tìm kiếm này khẳng định quan hệ đối tác với nhà lãnh đạo chip vẫn ngày càng bền chặt hơn bao giờ hết.

Google AI Chips: Chiến lược hai hướng cho huấn luyện và suy luận

Quyết định của Google khi tách Đơn vị Xử lý Tensor (TPU) thế hệ thứ tám thành hai mô hình riêng biệt đại diện cho một bước tiến lớn trong chiến lược phần cứng của mình. Trong lịch sử, TPU đảm nhận cả việc huấn luyện và suy luận, nhưng nhu cầu ngày càng tăng đối với khả năng tính toán AI chuyên biệt đã thúc đẩy sự thay đổi kiến trúc này. TPU 8t được thiết kế đặc biệt cho quá trình tính toán chuyên sâu trong việc huấn luyện các mô hình ngôn ngữ lớn và các hệ thống AI khác. Ngược lại, TPU 8i được tối ưu hóa cho suy luận, tức là quá trình liên tục chạy các mô hình đã được huấn luyện để tạo ra phản hồi cho các câu lệnh của người dùng.

Theo các tiêu chuẩn hiệu suất của Google, các chip mới mang lại những cải tiến đáng kể so với các thế hệ trước. Công ty khẳng định TPU 8t cung cấp tốc độ huấn luyện mô hình AI nhanh hơn tới 3 lầnhiệu suất trên mỗi đô la tốt hơn 80%. Hơn nữa, kỹ thuật của Google hiện cho phép hơn một triệu TPU làm việc cùng nhau trong một cụm khổng lồ duy nhất. Quy mô này cho phép huấn luyện các mô hình biên giới thế hệ tiếp theo mà trước đây là không khả thi. Lợi ích cho khách hàng điện toán đám mây là sức mạnh tính toán lớn hơn đáng kể với mức tiêu thụ năng lượng và chi phí thấp hơn.

Cuộc đua chip hyperscaler ngày càng khốc liệt

Thông báo của Google đặt công ty này vào trong xu hướng rộng lớn hơn của các nhà cung cấp đám mây lớn đang phát triển silicon tùy chỉnh. Amazon Web Services (AWS) có chip Graviton và Trainium, trong khi Microsoft Azure đang phát triển các bộ tăng tốc Maia. Phong trào này, thường được gọi là "cuộc đua chip hyperscaler," được thúc đẩy bởi mong muốn kiểm soát chuỗi cung ứng nhiều hơn, tối ưu hóa hiệu suất cho các ngăn xếp phần mềm cụ thể và cải thiện biên lợi nhuận chi phí. Tuy nhiên, các nhà phân tích cảnh báo rằng đây không phải là cuộc chơi có tổng bằng không chống lại Nvidia.

"Câu chuyện về 'hyperscalers vs. Nvidia' thường bị phóng đại quá mức," Patrick Moore, một nhà phân tích thị trường chip nổi tiếng, giải thích. "Các công ty này đang xây dựng năng lực bổ sung và tối ưu hóa cho hệ sinh thái của riêng họ. Họ không nhắm đến việc thay thế hoàn toàn Nvidia, đặc biệt là trong ngắn hạn." Moore đã từng dự đoán nổi tiếng vào năm 2016 rằng TPU đầu tiên của Google có thể đe dọa Nvidia và Intel, một dự báo tỏ ra non sớm khi vốn hóa thị trường của Nvidia đã tăng lên gần 5 nghìn tỷ đô la. Thực tế hiện tại mang tính cộng sinh hơn. Ví dụ, Google đã xác nhận sẽ cung cấp chip Vera Rubin sắp tới của Nvidia trong đám mây của mình vào cuối năm nay.

Một tương lai hợp tác, không đối đầu

Trên thực tế, Google nhấn mạnh sự hợp tác liên tục với Nvidia. Hai gã khổng lồ công nghệ đang cùng nhau phát triển các giải pháp mạng máy tính để làm cho các hệ thống dựa trên Nvidia chạy hiệu quả hơn trên cơ sở hạ tầng Google Cloud. Một dự án quan trọng liên quan đến việc cải thiện Falcon, một công nghệ mạng dựa trên phần mềm mà Google đã tạo ra và mã nguồn mở vào năm 2023. Sự hợp tác này nhấn mạnh một nhận thức quan trọng trong ngành: sự tăng trưởng của các dịch vụ đám mây AI mở rộng tổng thị trường có thể tiếp cận cho tất cả các silicon hiệu suất cao, dù mang thương hiệu Nvidia hay nhà cung cấp đám mây.

Logic tài chính rất rõ ràng. Khi các doanh nghiệp ngày càng di chuyển khối lượng công việc AI của họ lên đám mây, nhu cầu tính toán bùng nổ. Các nhà cung cấp đám mây sau đó có thể chuyển hướng các khối lượng công việc được tối ưu hóa nhất định sang chip tùy chỉnh của họ trong khi cung cấp khả năng tương thích rộng rãi của GPU Nvidia cho các công việc khác. Mô hình kết hợp này cho phép họ cải thiện lợi nhuận trên một số khối lượng công việc trong khi vẫn duy trì sự lựa chọn đầy đủ cho khách hàng. Đối với Nvidia, mỗi ứng dụng AI mới được lưu trữ trên Google Cloud đại diện cho một khách hàng tiềm năng cho thiết bị mạng, giấy phép phần mềm và, trong nhiều trường hợp, GPU của công ty.

Phân tích hiệu suất và tác động thị trường

Các thông số kỹ thuật của các TPU mới của Google cho thấy khoảng cách hiệu suất với các GPU tốt nhất trong lớp đang thu hẹp lại. Trọng tâm vào hiệu suất trên mỗi đô la và hiệu quả năng lượng giải quyết hai điểm đau chính cho các doanh nghiệp mở rộng AI: chi phí tăng vọt và tác động môi trường. Khả năng của Google khi kết nối hơn một triệu TPU cũng trực tiếp thách thức một trong những lợi thế chính của Nvidia—công nghệ NVLink dẫn đầu thị trường để kết nối số lượng lớn GPU.

Những ưu điểm chính của TPU mới của Google:

  • Chuyên biệt hóa: Chip chuyên dụng cho huấn luyện (TPU 8t) và suy luận (TPU 8i) tối ưu hóa cho các tác vụ cụ thể.
  • Hiệu quả chi phí: Hiệu suất trên mỗi đô la tốt hơn 80% có thể hạ thấp đáng kể rào cản gia nhập cho các dự án AI.
  • Quy mô: Cụm chip triệu đơn vị cho phép huấn luyện các mô hình AI chưa từng có.
  • Tích hợp: Tích hợp phần mềm sâu với các framework AI của Google như TensorFlow và JAX.

Tuy nhiên, hệ sinh thái của Nvidia, đặc biệt là nền tảng phần mềm CUDA, vẫn là một con hào kiên cố. Hàng triệu nhà phát triển AI được đào tạo trên CUDA, và vô số ứng dụng được xây dựng cho nó. Mặc dù chip của Google chạy các framework phổ biến, nhưng nhu cầu có thể phải chuyển đổi ứng dụng tạo ra ma sát. Cuộc chiến dài hạn có thể ít liên quan đến tốc độ bóng bán dẫn thô và nhiều hơn về việc nền tảng nào cung cấp giải pháp tổng thể hấp dẫn nhất cho các nhà phát triển và doanh nghiệp.

Kết luận

Việc Google ra mắt TPU 8t và TPU 8i đánh dấu một thời điểm then chốt trong sự phát triển của cơ sở hạ tầng AI. Điều này thể hiện cam kết nghiêm túc của công ty trong việc cạnh tranh trong đấu trường phần cứng AI đầy rủi ro cao, cung cấp cho doanh nghiệp các chip AI Google mạnh mẽ mới cho các tác vụ chuyên biệt. Tuy nhiên, thông báo này cũng củng cố bản chất phức tạp, hợp tác của ngành bán dẫn hiện đại. Thay vì một cuộc tấn công trực diện, Google đang thực thi một chiến lược hai hướng tinh vi: thúc đẩy silicon độc quyền trong khi tăng cường quan hệ đối tác với Nvidia. Cách tiếp cận này đảm bảo Google Cloud có thể phục vụ phạm vi rộng nhất có thể của các khối lượng công việc AI, từ những khối lượng được tối ưu hóa cho TPU tùy chỉnh của mình đến những khối lượng yêu cầu tiêu chuẩn phổ quát của GPU Nvidia. Những người chiến thắng cuối cùng có thể là các doanh nghiệp, những người sẽ được hưởng lợi từ sự cạnh tranh gia tăng, nhiều lựa chọn hơn và đổi mới liên tục về hiệu suất và chi phí.

Câu hỏi thường gặp

Q1: Sự khác biệt giữa chip TPU 8t và TPU 8i của Google là gì?
TPU 8t được thiết kế đặc biệt cho việc huấn luyện mô hình AI—quá trình dạy một mô hình sử dụng các tập dữ liệu khổng lồ. TPU 8i được tối ưu hóa cho suy luận, tức là quá trình sử dụng một mô hình đã được huấn luyện để đưa ra dự đoán hoặc tạo ra phản hồi trong thời gian thực.

Q2: Google Cloud có ngừng cung cấp GPU Nvidia không?
Không. Google đã tuyên bố rõ ràng rằng họ không thay thế Nvidia. Công ty xác nhận sẽ cung cấp GPU Vera Rubin thế hệ tiếp theo của Nvidia trong đám mây của mình vào cuối năm nay và đang tích cực hợp tác với Nvidia về công nghệ mạng.

Q3: Các chip AI mới của Google so sánh như thế nào với các phiên bản TPU trước đây?
Google khẳng định các TPU thế hệ thứ tám mới cung cấp tốc độ huấn luyện nhanh hơn tới 3 lần và cải thiện 80% hiệu suất trên mỗi đô la so với các thế hệ trước. Chúng cũng hỗ trợ các cụm hơn một triệu chip, cho phép huấn luyện mô hình ở quy mô lớn hơn.

Q4: Tại sao các nhà cung cấp đám mây như Google lại xây dựng chip AI riêng của họ?
Các nhà cung cấp đám mây phát triển silicon tùy chỉnh để tối ưu hóa hiệu suất cho phần mềm và dịch vụ cụ thể của họ, kiểm soát nhiều hơn chuỗi cung ứng, cải thiện hiệu quả chi phí và tạo sự khác biệt cho các dịch vụ của họ trong một thị trường cạnh tranh.

Q5: Điều này có ý nghĩa gì đối với tương lai của Nvidia?
Mặc dù các chip tùy chỉnh từ các hyperscaler đại diện cho sự cạnh tranh, nhưng sự tăng trưởng tổng thể của thị trường AI đang mở rộng nhu cầu đối với tất cả các thiết bị tính toán hiệu suất cao. Hệ sinh thái phần mềm mạnh mẽ (CUDA) và sự đổi mới liên tục của Nvidia có nghĩa là công ty này có khả năng vẫn là một lực lượng thống trị, ngay cả khi hợp tác với các công ty xây dựng silicon thay thế.

Bài viết này Google AI Chips Unleashed: TPU 8t và 8i ra mắt để thách thức sự thống trị của Nvidia xuất hiện lần đầu trên BitcoinWorld.

Cơ hội thị trường
Logo Movement
Giá Movement(MOVE)
$0.01841
$0.01841$0.01841
-1.39%
USD
Biểu đồ giá Movement (MOVE) theo thời gian thực
Tuyên bố miễn trừ trách nhiệm: Các bài viết được đăng lại trên trang này được lấy từ các nền tảng công khai và chỉ nhằm mục đích tham khảo. Các bài viết này không nhất thiết phản ánh quan điểm của MEXC. Mọi quyền sở hữu thuộc về tác giả gốc. Nếu bạn cho rằng bất kỳ nội dung nào vi phạm quyền của bên thứ ba, vui lòng liên hệ crypto.news@mexc.com để được gỡ bỏ. MEXC không đảm bảo về tính chính xác, đầy đủ hoặc kịp thời của các nội dung và không chịu trách nhiệm cho các hành động được thực hiện dựa trên thông tin cung cấp. Nội dung này không cấu thành lời khuyên tài chính, pháp lý hoặc chuyên môn khác, và cũng không được xem là khuyến nghị hoặc xác nhận từ MEXC.

USD1 khởi nguồn: 0 phí + 12% APR

USD1 khởi nguồn: 0 phí + 12% APRUSD1 khởi nguồn: 0 phí + 12% APR

Người mới: Stake để nhận APR đến 600%. Có thời hạn!