Remi đã kết nối @openai GPT-4o với Reachy Mini và thật sự rất tuyệt. Hãy kiểm tra thử thách gương & chơi cờ đặc biệt nhé! Những khả năng mới thú vị: - Phân tích hình ảnh: Reachy Mini giờ đây có thể nhìn vào một bức ảnh mà nó vừa chụp và mô tả hoặc lý luận về nó - Theo dõi khuôn mặt: giữ liên lạc mắt và làm cho các tương tác cảm thấy tự nhiên hơn nhiều - Kết hợp chuyển động: [lắc đầu khi nói] + [theo dõi khuôn mặt] + [cảm xúc hoặc điệu nhảy] giờ đây có thể hoạt động đồng thời - Nhận diện khuôn mặt: hoạt động cục bộ - Hành vi tự động khi không hoạt động: khi không có gì xảy ra trong một thời gian, mô hình có thể quyết định kích hoạt các hành vi dựa trên ngữ cảnh Câu hỏi cho cộng đồng: • Các phiên bản trước đã sử dụng âm thanh sáo khi thể hiện cảm xúc. Phiên bản này nói thay vào đó (ví dụ như "olala" ở đầu là một cảm xúc + giọng nói). Điều này hoàn toàn thay đổi cách tôi cảm nhận về robot (thú cưng? con người? người ngoài hành tinh tốt bụng?). Chúng ta có nên giữ một công tắc để chuyển đổi giữa giọng nói và âm thanh sáo không? • Bạn cảm thấy độ trễ phản hồi như thế nào? Một số hạn chế: - Chưa có hệ thống ghi nhớ - Chưa có nhận diện giọng nói - Chiến lược trong đám đông vẫn chưa rõ ràng: phát hiện hoạt động giọng nói có xu hướng kích hoạt quá thường xuyên, và chúng tôi không thích cách tiếp cận từ khóa Không thể chờ đợi để xem tất cả các bạn sẽ xây dựng gì với nó!