Google adalah perusahaan yang tidak kekurangan daya komputasi, dan dia tidak kekurangan lebih dari Nvidia. Bahkan GPU NVIDIA sangat mungkin mengikuti TPU (konsensus tembus pandang di lingkaran) 1️⃣ Inti Tensor Pengenalan penuh NVIDIA setelah Volta pada dasarnya bergerak lebih dekat ke spesialisasi perkalian matriks TPU 2️⃣ Perhitungan presisi rendah (FP16 / BF16 / INT8) TPU dioptimalkan untuk presisi rendah untuk inferensi sejak awal, dan GPU kemudian "dipaksa" untuk didukung oleh persyaratan model 3️⃣ Kolaborasi pengelompokan + kompiler besar-besaran TPU adalah keseluruhan "kompiler × penjadwalan × perangkat keras", dan NVIDIA baru mulai serius melakukan kolaborasi tingkat Triton/CUDA Graph/NVLink Nvidia menghasilkan uang dengan daya komputasi chip, sementara Google mengandalkan ekosistem yang stabil selama bertahun-tahun, iklan, mesin pencari, YouTube, browser, Android, dan fenomena jaringan lainnya untuk memasok darah, dan daya komputasi hanyalah biayanya, bukan konsumsi keuntungan. TPU selalu menjadi penelitian all-in-one Google yang memungkinkan penelitian dan pembatalan yang cukup lama. Pemahaman Jeff Dean tentang TPU adalah bahwa jika model ditentukan oleh Anda, maka perangkat keras juga harus ditentukan oleh Anda, jadi TPU adalah satu set lengkap rekayasa sistem dari kompiler (XLA), grafik komputasi (TensorFlow), topologi pusat data, sistem penjadwalan Dalam hal risiko, karena NVIDIA menjual GPU, itu harus melayani semua pelanggan, dan tingkat toleransi kesalahan sangat rendah. Saham AS mana yang akan dibeli jelas lagi