Remi conectó @openai GPT-4o a Reachy Mini y es genial. ¡Mira el desafío del espejo y el juego de ajedrez en particular! Nuevas y divertidas capacidades: - Análisis de imágenes: Reachy Mini ahora puede mirar una foto que acaba de tomar y describirla o razonar sobre ella - Seguimiento facial: mantiene el contacto visual y hace que las interacciones se sientan mucho más naturales - Fusión de movimiento: [bamboleo de la cabeza al hablar] + [seguimiento facial] + [emociones o bailes] ahora pueden ejecutarse simultáneamente - Reconocimiento facial: se ejecuta localmente - Comportamientos autónomos cuando está inactivo: cuando no sucede nada durante un tiempo, el modelo puede decidir desencadenar comportamientos basados en el contexto Preguntas para la comunidad: • Las versiones anteriores usaban sonidos de flauta al tocar emociones. Este habla en su lugar (por ejemplo, el "olala" al principio es una emoción + voz). Cambia completamente la forma en que percibo al robot (¿mascota? ¿humano? ¿alienígena amable?). ¿Deberíamos mantener una palanca para cambiar entre sonidos de voz y flauta? • ¿Cómo se siente para usted los retrasos en la respuesta? Algunas limitaciones: - Aún no hay sistema de memoria - Aún no hay identificación por voz - La estrategia en multitudes aún no está clara: la detección de la actividad de voz tiende a activarse con demasiada frecuencia y no nos gusta el enfoque de palabras clave ¡No puedo esperar a ver lo que todos construyen con él!