Elon Musk gấp rút hoàn thiện siêu máy tính lớn nhất thế giới

[Sao chép liên kết]
minhvy Đã xuất bản vào 2024-7-8 12:11:04 | Hiển thị tất cả các tầng |Chế độ đọc
minhvy
2024-7-8 12:11:04 64 0 Nhìn thấy tất cả
Theo dự kiến, việc lắp đặt siêu máy tính của Elon Musk sẽ bắt đầu trong vài tháng tới.

Tờ The Information dẫn đưa tin hồi tháng 5, tỷ phú Mỹ Elon Musk và công ty xAI đang lập kế hoạch huy động, đồng thời kết nối 100.000 card đồ họa chuyên dụng thành một siêu máy tính mang tên "Gigafactory of Computing", dự kiến hoạt động vào mùa thu năm sau.


Elon Musk gấp rút hoàn thiện siêu máy tính lớn nhất thế giới

Theo Tom's Hardware, Musk đang nỗ lực để hệ thống hoàn thành đúng tiến độ. Ông chọn Supermicro cung cấp giải pháp làm mát cho cả hai trung tâm dữ liệu chứa siêu máy tính của Tesla và xAI.

Ngày 2/7, Charles Liang, nhà sáng lập kiêm CEO của Supermicro, viết trên X: "Cảm ơn Musk vì đã đi đầu lựa chọn công nghệ làm mát bằng chất lỏng cho các trung tâm dữ liệu AI khổng lồ. Bước đi này có thể giúp bảo tồn 20 tỷ cây xanh cho hành tinh".

Các trung tâm dữ liệu AI vốn tiêu tốn lượng điện năng lớn, Supermicro hy vọng giải pháp bằng chất lỏng của họ sẽ giảm đến 89% chi phí điện cho cơ sở hạ tầng so với giải pháp truyền thống là dùng không khí.

Trong tweet trước đó, Musk ước tính siêu máy tính Gigafactory sẽ tiêu thụ 130 MW (130 triệu wat) điện khi triển khai. Kết hợp phần cứng AI của Tesla sau khi được lắp đặt, điện năng tiêu thụ của nhà máy có thể lên 500 MW. Tỷ phú cho biết việc xây dựng cơ sở gần như hoàn tất, dự kiến bắt đầu lắp đặt máy móc vài tháng tới.

Musk đang song song xây dựng hai cụm siêu máy tính cho Tesla và công ty khởi nghiệp xAI, đều ước tính trị giá hàng tỷ USD. Theo Reuters, nếu hoàn thành kết nối 100.000 GPU H100, Gigafactory of Computing là siêu máy tính mạnh nhất thế giới, gấp bốn lần cụm GPU lớn nhất hiện nay.

Elon Musk thành lập xAI vào tháng 7 năm ngoái, cạnh tranh trực tiếp với OpenAI và Microsoft. Startup này sau đó tung ra mô hình AI Grok, đối đầu với ChatGPT. Hồi đầu năm, Musk cho biết việc đào tạo mô hình Grok 2 tiếp theo sẽ cần khoảng 20.000 GPU H100 của Nvidia, trong khi Grok 3 có thể cần 100.000 chip H100.
Trả lời

Sử dụng đạo cụ Báo cáo

  • bạn có thể quan tâm
Bạn cần đăng nhập trước khi có thể trả lời đăng nhập | Đăng ký ngay

Phiên bản quy tắc tính điểm này Danh sách trả lại

minhvy Bảo mật
Thành viên trung cấpThư riêng

Xem:64 | Trả lời:0

Chúng tôi đã tổng hợp tất cả thông tin cần thiết cho cuộc sống và du lịch tại Philippines
About US
Hợp tác quảng cáo
liên hệ chúng tôi
Tham gia cùng chúng tôi
Đề xuất trang web

Việc kinh doanh

dịch vụ khách hàng

Nhóm chính thức

Trang thông tin cộng đồng Việt Nam lớn nhất tại Philippines.
Trả lời nhanh Trở về đầu trang Danh sách trả lại