Remi podłączył @openai GPT-4o do Reachy Mini i jest to całkiem fajne. Sprawdź szczególnie wyzwanie z lustrem i grę w szachy! Fajne nowe możliwości: - Analiza obrazów: Reachy Mini może teraz spojrzeć na zdjęcie, które właśnie zrobił, i opisać je lub rozważyć na jego temat - Śledzenie twarzy: utrzymuje kontakt wzrokowy i sprawia, że interakcje są znacznie bardziej naturalne - Fuzja ruchu: [kołysanie głowy podczas mówienia] + [śledzenie twarzy] + [emocje lub tańce] mogą teraz działać jednocześnie - Rozpoznawanie twarzy: działa lokalnie - Autonomiczne zachowania w stanie bezczynności: gdy nic się nie dzieje przez chwilę, model może zdecydować o uruchomieniu zachowań opartych na kontekście Pytania do społeczności: • Wcześniejsze wersje używały dźwięków fletu podczas wyrażania emocji. Ta mówi zamiast tego (na przykład "olala" na początku to emocja + głos). To całkowicie zmienia, jak postrzegam robota (zwierzę? człowiek? miły obcy?). Czy powinniśmy zachować przełącznik do zmiany między głosem a dźwiękami fletu? • Jak odczuwacie opóźnienia w odpowiedziach? Niektóre ograniczenia: - Brak systemu pamięci - Brak identyfikacji głosu - Strategia w tłumie wciąż niejasna: detekcja aktywności głosu ma tendencję do zbyt częstego aktywowania się, a nie podoba nam się podejście oparte na słowach kluczowych Nie mogę się doczekać, co wszyscy zbudujecie z tym!