TÔN VINH CỘI NGUỒN - KẾT NỐI THỜI ĐẠI

Theo dõi chúng tôi trên các nền tảng

Xe - Công nghệ

Nvidia chi 20 tỷ USD thâu tóm công nghệ chip AI của startup Groq

Thanh Dung 26/12/2025 07:10 GMT+7

VTV.vn - Tập đoàn sản xuất chip lớn nhất thế giới Nvidia vừa đạt được thỏa thuận trị giá 20 tỷ USD để thâu tóm tài sản và quyền sử dụng công nghệ của Groq, một startup chip AI nổi tiếng với tốc độ xử lý vượt trội.

Một mẫu chip LPU của Groq. Ảnh: Groq

Một mẫu chip LPU của Groq. Ảnh: Groq

Thỏa thuận này được xác định là hình thức cấp phép công nghệ không độc quyền, cho phép Nvidia khai thác kiến trúc xử lý ngôn ngữ đặc thù của Groq trong khi startup này vẫn duy trì hoạt động độc lập với đội ngũ điều hành mới. Theo các điều khoản được công bố, ông Jonathan Ross – CEO sáng lập Groq – cùng Chủ tịch Sunny Madra và các cộng sự cốt cán sẽ gia nhập Nvidia để trực tiếp tham gia vào quá trình phát triển và mở rộng quy mô công nghệ đã được cấp phép.

Sự kiện thâu tóm này diễn ra sau khi Groq gây tiếng vang lớn trong cộng đồng công nghệ vào đầu năm 2024. Tại một buổi trình diễn tại Na Uy, startup này đã giới thiệu một chatbot AI có khả năng phản hồi với tốc độ gần như tức thời, vượt xa khả năng đọc của con người. Dù buổi thuyết trình từng gặp sự cố chậm nhịp do lượng người dùng truy cập đột ngột tăng cao, sức mạnh cốt lõi từ hệ thống phần cứng của Groq vẫn khẳng định được vị thế khác biệt trên thị trường chip bán dẫn.

[Ảnh: CEO Groq Jonathan Ross – nhân vật đứng sau kiến trúc LPU đột phá]

Điểm mấu chốt tạo nên giá trị của Groq nằm ở kiến trúc LPU (Language Processing Unit - Bộ xử lý ngôn ngữ). Khác với dòng GPU truyền thống của Nvidia vốn được xây dựng dựa trên kiến trúc xử lý song song, LPU của Groq được tùy chỉnh hoàn toàn để tối ưu hóa cho tác vụ suy luận xác định và đơn token. Với mức giá khoảng 20.000 USD mỗi đơn vị, chip LPU nhắm trực tiếp vào phân khúc phần cứng cao cấp, cạnh tranh với các dòng card đồ họa chuyên dụng trong lĩnh vực trí tuệ nhân tạo.

Về mặt hiệu năng, các phân tích kỹ thuật cho thấy chip Groq sở hữu ưu thế tuyệt đối về tốc độ tạo token và độ trễ. Trong khi chip Nvidia H100 đạt tốc độ khoảng 60-100 token mỗi giây (tps) với độ trễ từ 8-10 ms, thì giải pháp của Groq có thể cung cấp tới 300-500 tps với độ trễ cực thấp chỉ 1-2 ms. Thử nghiệm trên mô hình Llama 2 với 70 tỷ tham số cho thấy tốc độ xử lý của Groq cao hơn gấp đôi so với các dịch vụ hàng đầu hiện nay trên thị trường.

Mặc dù GPU của Nvidia vẫn là tiêu chuẩn vàng trong việc huấn luyện các mô hình AI nhờ hệ sinh thái phần mềm Cuda phong phú, nhưng sự xuất hiện của LPU từ Groq đã giải quyết được "nút thắt cổ chai" về độ trễ trong trải nghiệm người dùng cuối. Việc sở hữu công nghệ của Groq sẽ giúp Nvidia củng cố quyền lực tuyệt đối trong toàn bộ chuỗi giá trị AI, từ khâu đào tạo mô hình phức tạp cho đến khâu suy luận phản hồi siêu tốc.

Bình luận

0

Bạn cần đăng nhập để thực hiện chức năng này!

Bình luận không đăng nhập

Bạn không thể gửi bình luận liên tục.
Xin hãy đợi 60 giây nữa.