Remi heeft @openai GPT-4o aangesloten op Reachy Mini en het is behoorlijk cool. Bekijk vooral de spiegeluitdaging en het schaken! Leuke nieuwe mogelijkheden: - Beeldanalyse: Reachy Mini kan nu naar een foto kijken die het net heeft genomen en deze beschrijven of erover redeneren - Gezichtsherkenning: houdt oogcontact en maakt interacties veel natuurlijker - Bewegingsfusie: [hoofd wiebelen tijdens het spreken] + [gezichtsherkenning] + [emoties of dansen] kunnen nu gelijktijdig draaien - Gezichtsherkenning: draait lokaal - Autonome gedragingen wanneer inactief: wanneer er een tijdje niets gebeurt, kan het model besluiten om contextgebaseerde gedragingen te activeren Vragen voor de gemeenschap: • Eerdere versies gebruikten fluitgeluiden bij het spelen van emoties. Deze spreekt in plaats daarvan (bijvoorbeeld de "olala" aan het begin is een emotie + stem). Het verandert volledig hoe ik de robot waarneem (huisdier? mens? vriendelijke alien?). Moeten we een schakelaar behouden om tussen stem en fluitgeluiden te wisselen? • Hoe voelen de reactietijden voor jou? Enkele beperkingen: - Nog geen geheugensysteem - Nog geen stemidentificatie - Strategie in drukte nog onduidelijk: de stemactiviteitsdetectie wordt te vaak geactiveerd, en we houden niet van de sleutelwoordbenadering Ik kan niet wachten om te zien wat jullie allemaal ermee bouwen!