Remi hat @openai GPT-4o mit Reachy Mini verbunden und es ist ziemlich cool. Schaut euch besonders die Spiegel-Herausforderung und das Schachspielen an! Neue spannende Fähigkeiten: - Bildanalyse: Reachy Mini kann jetzt ein Foto, das es gerade gemacht hat, ansehen und darüber beschreiben oder nachdenken - Gesichtserkennung: hält den Blickkontakt und macht Interaktionen viel natürlicher - Bewegungsfusion: [Kopf nicken beim Sprechen] + [Gesichtserkennung] + [Emotionen oder Tänze] können jetzt gleichzeitig ablaufen - Gesichtserkennung: läuft lokal - Autonome Verhaltensweisen im Leerlauf: wenn eine Weile nichts passiert, kann das Modell entscheiden, kontextbasierte Verhaltensweisen auszulösen Fragen an die Community: • Frühere Versionen verwendeten Flötentöne, um Emotionen auszudrücken. Diese spricht stattdessen (zum Beispiel das "olala" zu Beginn ist eine Emotion + Stimme). Es verändert völlig, wie ich den Roboter wahrnehme (Haustier? Mensch? freundlicher Außerirdischer?). Sollten wir einen Schalter beibehalten, um zwischen Stimme und Flötentönen zu wechseln? • Wie empfindet ihr die Verzögerungen bei den Antworten? Einige Einschränkungen: - Noch kein Gedächtnissystem - Noch keine Sprachidentifikation - Strategie in Menschenmengen noch unklar: die Spracherkennung wird zu oft aktiviert, und wir mögen den Schlüsselwortansatz nicht Ich kann es kaum erwarten zu sehen, was ihr alle damit aufbaut!