Dalla visione artificiale all’apprendimento automatico: come Atlas gestisce compiti complessi senza intervento umano
Il video “Atlas Goes Hands On” mostra le capacità avanzate del robot Atlas nel maneggiare autonomamente componenti di motori tra container di fornitori e un carrello mobile di sequenziamento. Atlas riceve come input un elenco di posizioni di contenitori da cui spostare le parti. L’innovazione principale è rappresentata dall’uso di un modello di visione basato sull’apprendimento automatico (ML) per rilevare e localizzare gli elementi fissi dell’ambiente e i singoli contenitori.
A partire dal minuto 0:36, si osserva come il robot utilizzi una tecnica di presa specializzata e stimi continuamente lo stato degli oggetti manipolati per portare a termine il compito con precisione. Le sue azioni sono interamente autonome, senza movimenti predefiniti o teleoperati, generando tutte le sequenze di movimento in tempo reale.
Un aspetto interessante è la capacità di Atlas di rilevare e adattarsi ai cambiamenti nell’ambiente circostante, come il movimento degli elementi fissi o il fallimento di azioni specifiche, inclusi errori nell’inserimento del coperchio o eventuali collisioni con l’ambiente, mostrato al minuto 1:24. Questo è possibile grazie a una combinazione di sensori di visione, forza e propriocettivi, che consentono al robot di reagire agli imprevisti e mantenere una certa flessibilità operativa.
Il video illustra chiaramente come l’integrazione di tecnologie avanzate di machine learning, visione artificiale e sensori di feedback consentano ad Atlas di gestire compiti complessi in modo autonomo, rappresentando un notevole passo avanti nell’automazione e nella robotica industriale.