Acho que parte da culpa é da cultura das startups do Silicon Valley / SF, que recompensa o desenvolvimento de envoltórios de IA e o ajuste fino de modelos de IA existentes. Em conjunto com o mantra "construir rápido, quebrar coisas", que desencoraja "tirar tempo para aprender coisas / aprender os fundamentos". Em essência, há uma grande pressão cultural sobre jovens pesquisadores e empreendedores (que vivem na costa oeste) para entregar algo imediatamente e se manterem atualizados com as tendências para se destacarem entre seus pares, ou ter uma startup que seja financiável. Isso significa que a maioria das pessoas nunca tem a chance de aprender ou explorar os fundamentos, e simplesmente constrói sobre pesquisas ou produtos existentes. No contexto dos Modelos Mundiais, é simplesmente ser capaz de executar pesquisas / modelos relacionados a Gaussian splat em vez de entender fundamentalmente como funciona a visão 3D ou mesmo gráficos computacionais. No contexto da IA incorporada, acredito que é ainda pior. Para elaborar, é muito mais fácil ativar um modelo VLA existente e ajustar um braço robótico para pegar uma caneca, do que passar alguns dias, por exemplo, entendendo as restrições do planejamento de movimento clássico, apreensão, manipulação, cinemática inversa, etc. E digo que "é pior" porque na IA incorporada você não está apenas lidando com software, mas também lidando com um sistema físico, e dominar o desenvolvimento ou a otimização de um sistema de hardware/software é outra fera.