Ett forskargrupp som arbetar på Googles robotavdelning och Georgia Institute of Technology har kommit fram till hur man låter fyrbenta robotar lära sig att gå utan att behöva någon hjälp från människor.
Som MIT Technology Review rapporterar, implementerade forskarna en djupförstärkningsinlärningsram som kombinerar en multi-tasking-inlärningsprocedur, en automatisk återställningsregulator och ett ramverk som är säkerhetsbegränsat.
Genom att göra det leder varje misslyckande vid inlärning till att roboten återhämtar sig och försöker igen istället för att behöva hjälp från en människa.
En robot kan träna med hjälp av ramverket i 80 minuter åt gången för att få erfarenhet utan mänsklig interaktion.
Den lär sig flera körriktningar samtidigt, så att den kan använda ett begränsat träningsutrymme effektivt (och utan att någonsin fastna i kanterna).
Först lär sig roboten framåt och bakåt på en plan yta, sedan på en mjuk madrass och slutligen på en dörrmatta med sprickor.
Det är då också möjligt att autonomt lära ut förmågan att svänga åt vänster och höger över de tre olika yttyperna.
Efter cirka 15 timmar kan den fyrbenta roboten på ett tillförlitligt sätt gå över olika svåra terrängtyper utan misslyckande.
Vid denna tidpunkt kan forskarna plugga in en spelplatta och ta kontroll över den gående roboten.
Rekommenderas av våra redaktörer
Den mest imponerande aspekten av denna forskning är förmågan att placera en robot i ett träningsområde och på mindre än en dag har den lärt sig att gå med försök och fel och några smarta algoritmer.
Forskarna erkänner att de litar på en "robust stand-up controller" just nu, som är utformad manuellt, men hoppas kunna ersätta den med ett lärt alternativ och tillåta roboten att "träna en återhämtning från den verkliga upplevelsen" så småningom .