Waarom generaliseren VLAs niet zo goed als hun VLM-tegenhangers? Een boosdoener: catastrofaal vergeten tijdens fine-tuning. 🧠 We introduceren VLM2VLA: een trainingsparadigma dat de VLM-capaciteiten behoudt terwijl het robotbesturing leert. 🧵