Remi 將 @openai GPT-4o 插入 Reachy Mini,效果相當不錯。特別是鏡子挑戰和下棋! 有趣的新功能: - 圖像分析:Reachy Mini 現在可以查看剛拍的照片並描述或推理它 - 臉部追蹤:保持眼神接觸,使互動感覺更加自然 - 動作融合:[說話時的頭部搖晃] + [臉部追蹤] + [情感或舞蹈] 現在可以同時運行 - 臉部識別:在本地運行 - 空閒時的自主行為:當一段時間內沒有發生任何事情時,模型可以決定觸發基於上下文的行為 對社群的問題: • 早期版本在表達情感時使用笛子聲音。這個版本則改為說話(例如開頭的 "olala" 是一種情感 + 聲音)。這完全改變了我對機器人的感知(寵物?人類?友好的外星人?)。我們應該保留一個切換開關來在聲音和笛子聲之間切換嗎? • 你們覺得反應延遲如何? 一些限制: - 尚未有記憶系統 - 尚未有聲音識別 - 在人群中的策略仍不清楚:語音活動檢測往往過於頻繁地啟動,我們不喜歡關鍵字的方法 迫不及待想看看你們會用它建造什麼!