Remi 将 @openai GPT-4o 插入了 Reachy Mini,效果非常酷。特别是镜子挑战和下棋! 有趣的新功能: - 图像分析:Reachy Mini 现在可以查看刚拍的照片并进行描述或推理 - 面部追踪:保持眼神接触,使互动感觉更加自然 - 动作融合:[说话时的头部摇晃] + [面部追踪] + [情感或舞蹈] 现在可以同时运行 - 面部识别:本地运行 - 空闲时的自主行为:当一段时间内没有发生任何事情时,模型可以决定触发基于上下文的行为 社区提问: • 早期版本在表达情感时使用长笛声。这一版本则改为说话(例如开头的 "olala" 是一种情感 + 声音)。这完全改变了我对机器人的看法(宠物?人类?友好的外星人?)。我们应该保留一个切换开关在声音和长笛声之间吗? • 你觉得响应延迟如何? 一些限制: - 还没有记忆系统 - 还没有声音识别 - 在人群中的策略仍不清晰:语音活动检测往往过于频繁地激活,我们不喜欢关键词的方法 迫不及待想看看你们用它构建的东西!