Google ist das Unternehmen mit der größten Rechenleistung, es hat sogar mehr als NVIDIA. Es wird sogar allgemein angenommen, dass die NVIDIA-GPUs wahrscheinlich den TPUs folgen (eine halbtransparente Übereinstimmung in der Branche). 1️⃣ Tensor-Kerne (Tensor Core) NVIDIA hat nach Volta umfassend eingeführt, was im Wesentlichen eine Annäherung an die Spezialisierung der Matrixmultiplikation der TPUs ist. 2️⃣ Niedrigpräzisionsberechnung (FP16 / BF16 / INT8) TPUs haben schon frühzeitig die Niedrigpräzision für Inferenz optimiert, während GPUs später durch die Anforderungen der Modelle „gezwungen“ wurden, dies zu unterstützen. 3️⃣ Großflächige Cluster + Compiler-Kooperation TPUs sind ein Gesamtpaket aus „Hardware × Compiler × Scheduling“, während NVIDIA erst anfängt, ernsthaft an der Zusammenarbeit auf Triton / CUDA Graph / NVLink-Ebene zu arbeiten. NVIDIA verdient Geld mit der Rechenleistung seiner Chips, während Google auf einem über viele Jahre stabilen Ökosystem basiert, das durch Werbung, Suchmaschinen, YouTube, Browser, Android und andere Internetphänomene unterstützt wird. Rechenleistung ist lediglich ein Kostenfaktor, nicht ein Gewinnverbrauch. TPUs sind seit jeher das Ergebnis von Googles intensiver Eigenentwicklung, die ausreichend Zeit für Forschung und Umwälzung erlaubt. Jeff Dean versteht TPUs so, dass wenn das Modell von dir definiert ist, auch die Hardware von dir definiert sein sollte. Daher ist TPU ein komplettes Systemengineering aus Compiler (XLA), Berechnungsgraph (TensorFlow), Rechenzentrumstopologie und Scheduling-System. In Bezug auf Risiken, da NVIDIA GPUs verkauft, muss es allen Kunden dienen, was die Fehlertoleranz extrem niedrig macht. Welches US-Aktien sollte man kaufen, ist jetzt klarer, oder?