Remi conectó @openai GPT-4o a Reachy Mini y es bastante genial. ¡Mira el desafío del espejo y el juego de ajedrez en particular! Nuevas capacidades divertidas: - Análisis de imágenes: Reachy Mini ahora puede mirar una foto que acaba de tomar y describirla o razonar sobre ella - Seguimiento facial: mantiene el contacto visual y hace que las interacciones se sientan mucho más naturales - Fusión de movimientos: [movimiento de cabeza mientras habla] + [seguimiento facial] + [emociones o bailes] ahora pueden ejecutarse simultáneamente - Reconocimiento facial: se ejecuta localmente - Comportamientos autónomos cuando está inactivo: cuando no sucede nada durante un tiempo, el modelo puede decidir activar comportamientos basados en el contexto Preguntas para la comunidad: • Las versiones anteriores usaban sonidos de flauta al expresar emociones. Esta en su lugar habla (por ejemplo, el "olala" al principio es una emoción + voz). Cambia completamente cómo percibo al robot (¿mascota? ¿humano? ¿extraterrestre amable?). ¿Deberíamos mantener un interruptor para alternar entre sonidos de voz y de flauta? • ¿Cómo te parecen los retrasos en las respuestas? Algunas limitaciones: - Aún no hay sistema de memoria - Aún no hay identificación de voz - Estrategia en multitudes aún poco clara: la detección de actividad de voz tiende a activarse con demasiada frecuencia, y no nos gusta el enfoque de palabras clave ¡No puedo esperar a ver lo que todos ustedes construyen con esto!