Remi kopplade in @openai GPT-4o till Reachy Mini och det är ganska coolt. Kolla in spegelutmaningen och schackspelandet i synnerhet! Roliga nya funktioner: - Bildanalys: Reachy Mini kan nu titta på ett foto som den just tagit och beskriva eller resonera kring det - Ansiktsspårning: håller ögonkontakt och gör att interaktioner känns mycket mer naturliga - Rörelsefusion: [huvudskakning när du talar] + [ansiktsspårning] + [känslor eller danser] kan nu köras samtidigt - Ansiktsigenkänning: körs lokalt - Autonoma beteenden när de är inaktiva: när ingenting händer på ett tag kan modellen bestämma sig för att utlösa kontextbaserade beteenden Frågor till communityn: • Tidigare versioner använde flöjtljud vid känslospel. Den här talar istället (till exempel är "olala" i början en känsla + röst). Det förändrar helt och hållet hur jag uppfattar roboten (husdjur? människa? slags utomjording?). Ska vi ha en växel för att växla mellan röst- och flöjtljud? • Hur känns fördröjningen av svar för dig? Några begränsningar: - Inget minnessystem ännu - Ingen röstidentifiering ännu - Strategin i folkmassor är fortfarande oklar: detekteringen av röstaktivitet tenderar att aktiveras för ofta, och vi gillar inte nyckelordsmetoden Kan inte vänta med att se vad ni alla bygger med den!