قام ريمي بتوصيل @openai GPT-4o ب Reachy Mini وهو رائع جدا. تحقق من تحدي المرآة ولعب الشطرنج على وجه الخصوص! قدرات جديدة ممتعة: - تحليل الصور: يمكن ل Reachy Mini الآن إلقاء نظرة على صورة التقطها للتو ووصفها أو التفكير فيها - تتبع الوجه: يحافظ على التواصل البصري ويجعل التفاعلات تبدو أكثر طبيعية - دمج الحركة: [تذبذب الرأس أثناء التحدث] + [تتبع الوجه] + [العواطف أو الرقصات] يمكن الآن تشغيلها في وقت واحد - التعرف على الوجوه: يعمل محليا - السلوكيات المستقلة عند الخمول: عندما لا يحدث شيء لفترة من الوقت ، يمكن للنموذج أن يقرر إطلاق السلوكيات القائمة على السياق أسئلة للمجتمع: • استخدمت الإصدارات السابقة أصوات الفلوت عند العزف على العواطف. هذا يتحدث بدلا من ذلك (على سبيل المثال ، "olala" في البداية هو عاطفة + صوت). إنه يغير تماما كيف أنظر إلى الروبوت (أليف؟ إنسان؟ غريب لطيف؟). هل يجب أن نحافظ على مفتاح تبديل للتبديل بين أصوات الصوت والفلوت؟ • كيف تشعر تأخير الاستجابة؟ بعض القيود: - لا يوجد نظام ذاكرة حتى الآن - لا يوجد تعريف صوتي حتى الآن - لا تزال الإستراتيجية في الحشود غير واضحة: يميل اكتشاف النشاط الصوتي إلى التنشيط كثيرا ، ولا نحب نهج الكلمات الرئيسية لا أطيق الانتظار لمعرفة ما تبنونه جميعا به!