BUCUREŞTI, 16 nov – Sputnik, Doina Crainic. Cercetătorii de la Universitatea din Osaka au propus o modalitate de a identifica și evalua mișcările faciale ale copilului-robot, numit Affetto. În acest sens, au creat o versiune a lui Affetto mult mai expresivă decât modelul primei generaţii care a fost creat în 2011.
Echipa a lansat trei clipuri video care prezintă expresiile lui Affetto. El clipeşte, priveşte cu ochii jumătate închişi, râde, se încruntă şi face cu ochiul la un moment dat.
„Descoperirile noastre ne vor permite sa controlăm în mod eficient mişcările faciale pentru a introduce expresii mai nuanţate, precum zâmbetul sau încruntarea”, a declarat cercetătorul Hisashi Ishihara.
Roboții nu reușesc să reproducă cu exactitate complexitatea expresiilor unui om. Aceasta din cauză că lipseşte un material adecvat care să imite pielea umană, dar şi din cauza modului asimetric în care fețele umane exprimă emoțiile. Trebuie tehnologia necesară pentru a programa aceste expresii.
Deformarea feței robotului constituie o problemă.
„Mişcarea pielii moi a feței lor creează instabilitate, iar aceasta este o problemă importantă de hardware cu care ne confruntăm. Am căutat o modalitate mai bună pentru a o măsura și a o controla”, a explicat autorul studiului, Minoru Asada.
Echipa a măsurat mișcarea a 116 puncte faciale ale robotului Affetto. Acestea constituiau unități de deformare, fiecare fiind programată să creeze o mișcare specială a feței, de exemplu, ridicarea buzei superioare.
Realizarea echipei deschide noi posibilităţi ca roboții Android să aibă mai multe expresii realiste, pentru a realiza o interacţiune mai profundă cu oamenii.