Một cuộc phỏng vấn rất sâu sắc với một nhân viên của $NVDA (cũng là một cựu nhân viên của $GOOGL) về chủ đề $NVDA/ASIC: 1. Anh ấy không nghĩ rằng sự phân chia giữa $NVDA và ASIC trong 5 năm tới sẽ là 50/50, mà sẽ giống như 80/20 hoặc 70/30 nghiêng về phía $NVDA. Anh ấy nghĩ rằng các TPU của $GOOGL mang lại tiết kiệm chi phí, nhưng không nghĩ rằng chúng hiệu suất bằng các GPU của $NVDA. Anh ấy đề cập rằng trên cơ sở token mỗi giây, một TPU khoảng 1500-2000 token mỗi giây, trong khi một H100 ở mức 2000-3500 token mỗi giây trong cài đặt tối ưu. 2. Anh ấy đưa ra ví dụ về khi nào TPUs hoặc GPUs là tốt cho việc sử dụng. Nếu bạn chạy suy diễn ChatGPT5 cho các truy vấn đơn giản như vẽ tranh, anh ấy nghĩ rằng TPUs sẽ tiết kiệm chi phí hơn. Anh ấy cũng đề cập rằng họ đang thấy rằng $GOOGL đang cung cấp giảm giá đáng kể cho khách hàng để sử dụng TPUs. 3. Anh ấy đề cập rằng theo quan điểm của mình, xAI của Elon đang xây dựng một lực lượng bán hàng khổng lồ và tạo ra một sự gián đoạn lớn, và mục tiêu của họ là bán tính toán và trở thành $ORCL. 4. Anh ấy nói rằng $NVDA trong một số trường hợp đang đưa vào các GPU/tăng tốc mới và mua lại các GPU cũ từ khách hàng: »Nếu một khách hàng có A100s và họ muốn chuyển sang H100s, chúng tôi sẽ mua lại các máy chủ và chip và sau đó bán lại chúng ra nước ngoài.« 5. Anh ấy gợi ý rằng anh ấy tin rằng $CRWV sẽ là một »quái vật tuyệt đối« trong 3-5 năm tới khi họ đang nhận được sự ưu tiên từ $NVDA. Anh ấy cũng gợi ý về một số thông báo quan trọng tại GTC tiếp theo vào tháng 10, đặc biệt là về phía sản xuất tại Mỹ. tìm thấy trên @AlphaSenseInc