Heim > Artikel > Technologie-Peripheriegeräte > Google führt das visuelle Sprachaktionsmodell RT-2 ein, um Robotern die Beherrschung von Müllentsorgungsfähigkeiten zu ermöglichen
Neuigkeiten vom 28. Juli Google hat heute ein neues Modell für künstliche Intelligenz (KI) Robotics Transformer2 (RT-2) auf den Markt gebracht, das dabei helfen kann, Robotern beizubringen, Aufgaben wie das Wegwerfen von Müll zu verstehen.
Dieser Satz kann nicht umgeschrieben werden, da es sich nicht um einen vollständigen Satz, sondern um eine Bezeichnung handelt. Bitte geben Sie einen vollständigen Satz an und ich helfe Ihnen gerne beim Umschreiben.
Laut Google ist RT-2 ein visuelles Sprachaktionsmodell, das Informationen und Bilder aus dem Internet in Aktionen umwandeln kann, die Roboter verstehen können. Dies trägt zur Verbesserung des Lernens bei Fähigkeiten von Robotern
Obwohl Aufgaben wie das Aufsammeln von Müll für Menschen einfach erscheinen mögen, müssen Roboter eine Reihe von Kenntnissen beherrschen, um lernen zu können. Beispielsweise muss ein Roboter zunächst lernen, zu erkennen, aus welchen Gegenständen Müll besteht, und dann verstehen, wie er ihn aufnimmt und entsorgt. RT-2 ermöglicht es dem Roboter, Wissen im Netzwerk zu nutzen, um zu verstehen, wie Aufgaben erledigt werden. Anstatt sich von der Programmierung leiten zu lassen, erledigen Roboter bestimmte Aufgaben. Auch wenn der Roboter keine expliziten Trainingsschritte durchläuft, kann er durch RT-2 lernen und neue Aufgaben erledigen
Laut der New York Times hat Google derzeit keine Pläne, Roboter mit dieser neuen Technologie herauszubringen oder zu verkaufen, aber irgendwann wird dies der Fall sein Die Technologie kann auf Lagerlogistik- oder Heimroboter-Roboter angewendet werden
Das obige ist der detaillierte Inhalt vonGoogle führt das visuelle Sprachaktionsmodell RT-2 ein, um Robotern die Beherrschung von Müllentsorgungsfähigkeiten zu ermöglichen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!