Jeg tror en del av skylden ligger i Silicon Valley / SF-startup-kulturen, som belønner utviklingen av AI-innpakninger og finjustering av eksisterende AI-modeller. I kombinasjon med mantraet «bygg raskt, ødelegg ting», som fraråder «å ta seg tid til å lære ting / lære det grunnleggende». I bunn og grunn er det mye kulturelt press på unge forskere og entreprenører (som bor på vestkysten) for å levere noe umiddelbart og holde seg oppdatert på trender for å skille seg ut blant sine jevnaldrende, eller ha en oppstart som kan finansieres. Det betyr at de fleste aldri får sjansen til å lære eller utforske det grunnleggende, men bare bygge videre på eksisterende forskning eller produkter. I sammenheng med World Models handler det rett og slett om å kunne kjøre Gaussian splat-relatert forskning/modeller i stedet for å grunnleggende forstå hvordan 3D-syn fungerer eller til og med datagrafikk. I sammenheng med legemliggjort AI mener jeg det er enda verre. For å utdype, det er mye enklere å sette opp en eksisterende VLA-modell og finjustere en robotarm til å plukke opp en kopp, enn å bruke noen dager, for eksempel på å forstå begrensningene ved klassisk bevegelsesplanlegging, griping, manipulasjon, invers kinematikk osv. Og jeg sier at «det er verre» fordi i embodied AI har du ikke bare med programvare å gjøre, men også med et fysisk system, og å mestre utvikling eller optimalisering av et maskinvare-/programvaresystem er en annen utfordring.