Robot vede, robot capisce, robot fa: un framework computazionale e architetturale per la robotica sociale

Progetto: Research project

Dettagli progetto

Layman's description

Come fanno gli esserei umani a capire il mondo circostante e gli altri, e sulla base di queste informazioni a pianificare le proprie azioni, sia immediate che future, per assicurare un comportamento sociale avanzato - cooperativo o competitivo che sia? Lo scopo di questo progetto è lo sviluppo - all'interno di un un unico framework computazionale e architetturale - di una visione ‘incarnata' della cognizione individuale e sociale, la cui comprensione si fonda interamente sui processi sensomotori della percezione e dell'azione, e la sua implementazione su una piattaforma robotica umanoide al fine di dotare i robot di avanzate capacità sociali oltre lo stato dell'arte. Il progetto avrà, come punto di partenza, l'analisi delle capacità più evolute degli esseri umani che rientrano nella sfera della cognizione individuale e sociale: Come gli oggetti possono guidare le nostre azioni (affordances)? Come rappresentiamo gli oggetti e gli eventi esterni? Come creiamo modelli dettagliati del mondo circostante e come li usiamo per pianificare e scegliere tra possibili azioni? Perché percepiamo gli altri come nostri conspecifici e come comprendiamo le loro azioni ed intenzioni? Come impariamo osservando e imitando gli altri? Come si fa a costruire una teoria della mente? Come facciamo a svolgere azioni complesse mentre collaboriamo con gli altri? Per spiegare tali capacità, solo apparentemente scorrelate, prenderemo come background scientifico la "teoria dell'emulazione della rappresentazione" (Grush, 2004), secondo la quale il cervello, per intraprendere una qualunque azione, realizza modelli interni del corpo e del mondo; una volta definiti, tali modelli sono alla base di ogni processo di rappresentazione e comprensione. Tra i modelli interni, i modelli forward (predittori) delle proprie azioni motorie svolgono un ruolo di primaria importanza, in quanto supportano sia l'esecuzione di un comportamento “goal-oriented” (orientato al goal) sia la comprensione a livello motorio del mondo esterno in termini di pattern di azioni possibili. Per esempio, una spugna può evocare l'azione dello ‘strizzare' così come la qualità della ‘morbidezza'. Lo stesso meccanismo permette la comprensione di azioni ed intenzioni di altre persone, attraverso la loro "emulazione" tramite il riutilizzo del proprio repertorio motorio in simulazione, e conseguentemente dei relativi modelli. Ad esempio, io intuisco la tua intenzione di prendere una tazza, eseguendo mentalmente i miei modelli, compatibili con dato contesto, e selezionando quello che meglio si adatta alla traiettoria osservata durante la presa. In altre parole, questo processo può essere inteso come "mettermi nei tuoi panni" evocando interiormente gli stessi modelli che avrei intenzionalmente utilizzato se mi fossi trovato in una situazione analoga (Goldman, 2006; per un resoconto computazionalmente efficiente di questo processo si veda Dindo et al., 2011). In sostanza, questa teoria riutilizza il concetto di modelli generativi e predittivi, ben consolidato nell'ambito dell'ingegneria, controllo motorio e delle neuroscienze per lo studio dei processi percettivi e motori (Friston, 2010, Wolpert et al., 1995), e li estende allo studio della rappresentazione e della cognizione superiore. In tal modo, fornisce un framework meccanicistico per una cognizione incarnata, descrivendo come i processi sensomotori e le emulazioni possano concretamente realizzare i processi cognitivi; vedi anche (Barsalou, 2008; Jeannerod, 2006; Pezzulo, 2008, 2011; Wolpert et al, 2003). Inoltre, un numero sempre più crescente di prove nell'ambito della neuroscienza cognitiva fornisce un robusto sostegno per il riuso dei loop sensomotori per compiti cognitivi. Questo è più evidente dopo l'importante scoperta dei neuroni specchio nel cervello della scimmia, che ha messo in relazione per la prima volta due funzioni tradizionalmente considerate distinte: la pianificazione dell
StatoAttivo
Data di inizio/fine effettiva1/1/12 → …

Fingerprint

Esplora i temi di ricerca toccati da questo progetto. Queste etichette sono generate sulla base dei riconoscimenti/sovvenzioni sottostanti. Insieme formano una fingerprint unica.