Google är företaget som inte saknar datorkraft, och de saknar inte mer än Nvidia. Även NVIDIA-GPU:er är mycket benägna att följa TPU (den genomskinliga konsensusen i cirkeln) 1️⃣ Tensorkärna NVIDIAs fullständiga introduktion efter Volta rör sig i princip närmare matrismultiplikationsspecialiseringen av TPU:er 2️⃣ Lågprecisionsberäkning (FP16 / BF16 / INT8) TPU optimerades tidigt för låg precision för inferens, och GPU:n "tvingades" senare att stödja modellkrav 3️⃣ Massiv klustring + kompilator-samarbete TPU är hela "hårdvaru- ×kompilatorn × schemaläggning", och NVIDIA har precis börjat arbeta seriöst med Triton/CUDA Graph/NVLink-nivå samarbete Nvidia tjänar pengar på chip-datorkraft, medan Google förlitar sig på ett stabilt ekosystem i många år, reklam, sökmotorer, YouTube, webbläsare, Android och andra nätverksfenomen för att leverera blod, och datorkraft är bara dess kostnad, inte en konsumtion av vinst. TPU har alltid varit Googles allt-i-ett-forskning som möjliggör tillräckligt lång forskning och omstörtande. Jeff Deans förståelse av TPU är att om modellen definieras av dig, så bör hårdvaran också definieras av dig, så TPU är en komplett uppsättning systemteknik från kompilatorn (XLA), beräkningsgrafen (TensorFlow), datacentertopologi och schemaläggningssystem När det gäller risk, eftersom NVIDIA säljer GPU:er, måste de betjäna alla kunder, och feltoleransen är extremt låg. Vilken amerikansk aktie man ska köpa är klar igen