Il nuovo sviluppo rende le interazioni con i robot più autentiche e significative, in grado di rispondere alle nostre emozioni in tempo reale.
L’avanzamento tecnologico ha portato alla creazione di dispositivi che non solo capiscono, ma imitano le complessità delle emozioni umane. L’innovazione continua a svolgere un ruolo cruciale nel plasmare le nostre vite quotidiane, ma gli ultimi sviluppi nel mondo della robotica stanno avendo un impatto molto divisivo sull’opinione pubblica. Fino a oggi, robot e IA sono stati in grado di sostituirci in compiti manuali e ripetitivi. I modelli più recenti, però, sembrano in grado anche di provare le nostre emozioni.
Con il crescente bisogno di comprendere e migliorare la qualità delle interazioni umano-robot, gli ingegneri e i ricercatori si sono dedicati alla creazione di sistemi sempre più sofisticati. Questi sforzi si sono concentrati principalmente sull’aumento dell’efficienza e della funzionalità, ma anche sull’aggiunta di un livello di empatia e comprensione emotiva, aspetti fondamentali per costruire relazioni significative tra esseri umani e macchine.
I robot stanno imparando a imitare anche i comportamenti più umani
Recentemente, presso la Colombia University, un team di ingegneri ha fatto un notevole passo avanti nell’ambito dell’interazione umano-robot. I ricercatori hanno infatti presentato al mondo Emo, un robot con faccia in silicone capace di emulare le espressioni facciali umane. Questo nuovo modello segna un traguardo non indifferente nel campo dell’intelligenza artificiale e dell’ingegneria robotica, dimostrando che è possibile colmare il divario comunicativo tra umani e macchine in modi che fino a poco tempo fa erano considerati fantascientifici.
Il design innovativo di Emo include 26 attuatori nascosti sotto la sua superficie in silicone, che gli consentono di esprimere un’ampia gamma di emozioni. Oltre a questo, quando si confronta con un essere umano, Emo è in grado di anticipare e replicare il sorriso quasi 840 millisecondi prima che questo si verifichi.
Questo robot, frutto della collaborazione tra le università di Colombia e Duke, è espressione del talento e della sofisticata progettazione dei team coinvolti. L’impiego di due modelli di intelligenza artificiale consente a Emo di prevedere le espressioni facciali umane analizzando minime variazioni nei movimenti del viso, e di generare comandi motori per esprimere le corrispondenti espressioni facciali. Questo approccio permette quindi a Emo di imitare le espressioni in tempo reale ma soprattutto di anticiparle.
Il progetto non si ferma qui. Con l’integrazione futura di grandi modelli linguistici, come ChatGPT, Emo potrà abbracciare anche le capacità di comunicazione verbale, ampliando ulteriormente le sue applicazioni come assistente personale ed educativo.