1/ Google DeepMind sta portando l'AI nel mondo fisico: Gemini Robotics 1.5 trasforma un modello linguistico in un agente che può guidare i robot e padroneggiare compiti complessi passo dopo passo. Un grande passo per collegare pensiero e azione! Analizziamolo 🧵:
2/ I robot hanno a lungo faticato con i compiti quotidiani: troppo rigidi, troppo dipendenti da comandi esatti, incapaci di adattarsi. Anche qualcosa di semplice come "riordinare la tavola" era difficile senza contesto e abilità di pianificazione.
Sundar Pichai
Sundar Pichai22 ore fa
I nuovi modelli Gemini Robotics 1.5 permetteranno ai robot di ragionare meglio, pianificare in anticipo, utilizzare strumenti digitali come la Ricerca e trasferire l'apprendimento da un tipo di robot a un altro. Il nostro prossimo grande passo verso robot di uso generale che siano davvero utili — puoi vedere come il robot ragiona mentre piega il bucato nel video qui sotto.
3/ Gemini Robotics 1.5 fonde linguaggio, visione e pianificazione. Comprende l'intento umano, progetta una sequenza di azioni, spiega il suo ragionamento—e poi dirige un robot per eseguirlo. Pensare e fare, finalmente connessi.
4/ I robot possono ora adattarsi a situazioni reali: dall'aiuto in casa alla gestione della logistica nelle fabbriche. Non si tratta solo di automazione: è un'interazione intelligente con il mondo che ci circonda.
Google DeepMind
Google DeepMind22 ore fa
Molte delle nostre attività quotidiane richiedono molti passaggi per essere completate e possono essere estremamente impegnative per i robot. Immagina di chiedere: “In base alla mia posizione, puoi ordinare questi oggetti nei contenitori giusti per il compost, il riciclaggio e i rifiuti?” 🗑️ Il robot deve cercare in rete le linee guida locali, osservare gli oggetti, capire come ordinarli e poi completare il compito. ↓
12,01K