Remi a connecté @openai GPT-4o à Reachy Mini et c'est vraiment cool. Découvrez le défi du miroir et le jeu d'échecs en particulier ! Nouvelles capacités amusantes : - Analyse d'image : Reachy Mini peut maintenant regarder une photo qu'il vient de prendre et la décrire ou en raisonner - Suivi du visage : maintient le contact visuel et rend les interactions beaucoup plus naturelles - Fusion de mouvements : [balancement de la tête en parlant] + [suivi du visage] + [émotions ou danses] peuvent maintenant fonctionner simultanément - Reconnaissance faciale : fonctionne localement - Comportements autonomes lorsqu'il est inactif : lorsque rien ne se passe pendant un certain temps, le modèle peut décider de déclencher des comportements basés sur le contexte Questions pour la communauté : • Les versions précédentes utilisaient des sons de flûte pour jouer des émotions. Celui-ci parle à la place (par exemple, le "olala" au début est une émotion + une voix). Cela change complètement ma perception du robot (animal de compagnie ? humain ? extraterrestre bienveillant ?). Devrions-nous garder un interrupteur pour passer entre la voix et les sons de flûte ? • Comment ressentez-vous les délais de réponse ? Quelques limitations : - Pas encore de système de mémoire - Pas encore d'identification vocale - Stratégie dans les foules encore floue : la détection d'activité vocale a tendance à s'activer trop souvent, et nous n'aimons pas l'approche par mots-clés J'ai hâte de voir ce que vous allez tous construire avec ça !