Jag tror att en del av skulden ligger på startupkulturen i Silicon Valley / SF, som belönar utvecklingen av AI-wrappers och finjustering av befintliga AI-modeller. I kombination med mantrat "bygg fast, bryt saker", som avråder från att "ta sig tid att lära sig saker / lära sig grunderna". I grund och botten finns det mycket kulturellt tryck på unga forskare och entreprenörer (som bor på västkusten) att leverera något direkt och hålla sig uppdaterade om trender för att sticka ut bland sina kollegor, eller ha en startup som är finansierbar. Det betyder att de flesta aldrig får chansen att lära sig eller utforska grunderna, utan helt enkelt bygga vidare på befintlig forskning eller produkter. I kontexten av världsmodeller handlar det helt enkelt om att kunna köra Gaussisk splat-relaterad forskning/modeller istället för att grundläggande förstå hur 3D-syn fungerar eller till och med datorgrafik. I kontexten av förkroppsligad AI tror jag att det är ännu värre. För att förklara är det mycket enklare att starta en befintlig VLA-modell och finjustera en robotarm för att lyfta en mugg, än att spendera några dagar, t.ex. på att förstå begränsningarna för klassisk rörelseplanering, grepp, manipulation, invers kinematik osv. Och jag säger att "det är värre" eftersom man i förkroppsligad AI inte bara har att göra med mjukvara utan också med ett fysiskt system, och att bemästra utvecklingen eller optimeringen av ett hårdvaru-/mjukvarusystem är en annan sak.