Gli ingegneri della Columbia hanno progettato una mano robotica che è il primo dispositivo del suo genere a unire il senso avanzato del tatto con algoritmi di apprendimento motorio: non si affida alla vista per manipolare gli oggetti. I ricercatori di robotica hanno cercato a lungo di creare una “vera” destrezza nelle mani dei robot, ma l’obiettivo spesso non è stato raggiunto al meglio. Le pinze e le ventose dei robot sono in grado di prelevare e posizionare gli oggetti, ma le attività che richiedono maggiore precisione come l’assemblaggio, l’inserimento, il riorientamento, l’imballaggio e così via, sono rimaste nel regno della manipolazione umana. Tuttavia, grazie ai progressi della tecnologia di rilevamento e delle tecniche di apprendimento automatico per elaborare i dati rilevati, il campo della manipolazione robotica sta cambiando molto rapidamente.
Una mano robotica che lavora anche al buio
Come dimostrazione di abilità, il team ha scelto un difficile compito di manipolazione: eseguire una rotazione arbitrariamente ampia di un oggetto di forma irregolare, mantenendo sempre l’oggetto in una presa stabile e sicura. Si tratta di un compito molto difficile perché richiede il riposizionamento costante di un sottoinsieme di dita, mentre le altre devono mantenere l’oggetto in modo stabile.
Non solo la mano è stata in grado di svolgere questo compito, ma lo ha fatto anche senza alcun feedback visivo, basandosi esclusivamente sul rilevamento tattile. Oltre ai nuovi livelli di destrezza, la mano ha lavorato senza telecamere esterne, quindi è immune da problemi di illuminazione, occlusione o simili. Il fatto che la mano non si affidi alla vista per manipolare gli oggetti significa che può farlo anche in condizioni di illuminazione molto difficili che confonderebbero gli algoritmi basati sulla visione: può persino operare al buio.
Insegnare alla mano a svolgere compiti complessi
In un lavoro precedente, il gruppo di Ciocarlie ha collaborato con Ioannis Kymissis, professore di ingegneria elettrica, per sviluppare una nuova generazione di dita tattili robotiche basate sull’ottica. Queste sono state le prime dita robotiche a raggiungere la localizzazione del contatto con una precisione sub-millimetrica, fornendo al contempo una copertura completa di una superficie complessa e multi-curvata. Inoltre, il packaging compatto e il basso numero di fili delle dita hanno permesso una facile integrazione in mani robotiche già esistenti. Per questo nuovo lavoro, guidato dal dottorando di ricerca del Ciocarlie, Gagan Khandate, i ricercatori hanno progettato e costruito una mano robotica con cinque dita e 15 articolazioni azionate in modo indipendente; ogni dito era dotato della nuova tecnologia di rilevamento tattile del team. Per testare la capacità della mano tattile di eseguire compiti di manipolazione complessi, i ricercatori hanno utilizzato nuovi metodi per l’apprendimento motorio, ovvero la capacità di un robot di imparare nuovi compiti fisici attraverso la pratica. In particolare, hanno utilizzato un metodo chiamato deep reinforcement learning (apprendimento per rinforzo profondo), aumentato con nuovi algoritmi sviluppati per un’efficace esplorazione delle possibili strategie motorie. Il robot ha completato circa un anno di pratica in poche ore di tempo reale. L’input per gli algoritmi di apprendimento motorio consisteva esclusivamente nei dati tattili e propriocettivi del team, senza alcuna visione grazie ai moderni simulatori. I ricercatori hanno poi trasferito l’abilità di manipolazione allenata nella simulazione alla mano robotica reale, che è stata in grado di raggiungere il livello di destrezza sperato dal team. Ciocarlie ha osservato che “l‘obiettivo direzionale del settore rimane la robotica assistita in casa, il terreno di prova definitivo per la destrezza reale. In questo studio abbiamo dimostrato che le mani dei robot possono essere altamente destre anche solo sulla base del rilevamento tattile. Quando, oltre al tatto, aggiungeremo anche il feedback visivo, speriamo di poter raggiungere una destrezza ancora maggiore e di avvicinarci un giorno alla replica della mano umana“. In definitiva, ha osservato Ciocarlie, un robot fisico utile nel mondo reale ha bisogno sia di un’intelligenza astratta e semantica (per comprendere i concetti e le funzioni di un robot) sia di un’intelligenza incarnata (l’abilità di interagire fisicamente con il mondo). Modelli linguistici di grandi dimensioni come GPT-4 di OpenAI o PALM di Google mirano a fornire il primo, mentre la destrezza nella manipolazione ottenuta in questo studio rappresenta un progresso complementare nel secondo. Per esempio, quando si chiede come fare un panino, ChatGPT risponde digitando un piano passo dopo passo, ma ci vuole un robot abile per prendere quel piano e fare effettivamente il panino. Allo stesso modo, i ricercatori sperano che i robot fisicamente abili saranno in grado di portare l’intelligenza semantica fuori dal mondo puramente virtuale di Internet e di farne buon uso in compiti fisici reali, forse anche nelle nostre case.