1/ Google DeepMind bringt KI in die physische Welt: Gemini Robotics 1.5 verwandelt ein Sprachmodell in einen Agenten, der Roboter anleiten und komplexe Aufgaben Schritt für Schritt meistern kann. Ein großer Schritt zur Verknüpfung von Gedanken und Handlungen! Lass es uns aufschlüsseln 🧵:
2/ Roboter hatten schon lange Schwierigkeiten mit alltäglichen Aufgaben: zu starr, zu abhängig von genauen Befehlen, unfähig sich anzupassen. Selbst etwas so Einfaches wie "den Tisch abräumen" war ohne Kontext und Planungskompetenz schwierig.
Sundar Pichai
Sundar PichaiVor 18 Stunden
Die neuen Gemini Robotics 1.5-Modelle werden es Robotern ermöglichen, besser zu schlussfolgern, vorauszuplanen, digitale Werkzeuge wie die Suche zu nutzen und Wissen von einer Art von Roboter auf eine andere zu übertragen. Unser nächster großer Schritt in Richtung universeller Roboter, die wirklich hilfreich sind – Sie können sehen, wie der Roboter schlussfolgert, während er Wäsche sortiert, im Video unten.
3/ Gemini Robotics 1.5 verbindet Sprache, Vision und Planung. Es versteht menschliche Absichten, entwirft eine Abfolge von Aktionen, erklärt sein Vorgehen – und leitet dann einen Roboter an, dies auszuführen. Denken und Handeln, endlich verbunden.
4/ Roboter können sich jetzt an reale Situationen anpassen: von der Hilfe im Haushalt bis hin zur Verwaltung von Logistik in Fabriken. Das ist nicht nur Automatisierung – es ist intelligente Interaktion mit der Welt um uns herum.
Google DeepMind
Google DeepMindVor 18 Stunden
Viele unserer täglichen Aktivitäten erfordern viele Schritte, um sie abzuschließen, und können für Roboter äußerst herausfordernd sein. Stellen Sie sich vor, Sie fragen: „Kannst du basierend auf meinem Standort diese Objekte in die richtigen Kompost-, Recycling- und Mülltonnen sortieren?“ 🗑️ Der Roboter muss im Internet nach lokalen Richtlinien suchen, die Objekte betrachten, herausfinden, wie man sie sortiert, und dann die Aufgabe abschließen. ↓
10,27K