Creo que parte de la culpa es la cultura de startups de Silicon Valley / SF, que recompensa el desarrollo de envoltorios de IA y el ajuste fino de los modelos de IA existentes. Junto con el mantra de "construir rápido, romper cosas", que desaconseja "tomarse tiempo para aprender cosas / aprender los fundamentos". En esencia, hay mucha presión cultural sobre los jóvenes investigadores y emprendedores (que viven en la costa oeste) para que entreguen algo de inmediato y estén al día de las tendencias para destacar entre sus compañeros, o tener una startup financiable. Esto significa que la mayoría de las personas nunca tienen la oportunidad de aprender o explorar los fundamentos, y simplemente construyen sobre investigaciones o productos existentes. En el contexto de los Modelos Mundiales, simplemente es poder ejecutar investigaciones o modelos relacionados con los splats gaussianos en lugar de entender fundamentalmente cómo funciona la visión 3D o incluso los gráficos por ordenador. En el contexto de la IA incorporada, creo que es aún peor. Para explicar más, es mucho más fácil poner en marcha un modelo VLA existente y afinar un brazo robótico para que coja una taza, que pasar unos días, por ejemplo, entendiendo las limitaciones clásicas de la planificación clásica del movimiento, agarre, manipulación, cinemática inversa, etc. Y digo que "es peor" porque en la IA incorporada no solo tratas con software, sino también con un sistema físico, y dominar el desarrollo o optimización de un sistema de hardware/software es otra bestia.