La mano si allunga verso la bottiglia
d’acqua e il computer sa già se vorrò bere o passarla aun commensale. Il
giocatore di poker muove la fiche sul tavolo per rilanciare e il computer
capisce se le sue carte sono buone oppure è un bluff. Non si tratta di potere
divinatorio, ma di un nuovo tipo di lettura automatica del pensiero a partire
dai micromovimenti che tradiscono le nostre intenzioni. È riuscito a
realizzarlo un team italiano, guidato da Cristina Becchio, dell’Istituto
italiano di tecnologia di Genova, che ha pubblicato la ricerca su Physics of
Life Reviews. Ed è la prima volta che viene mostrata sperimentalmente la
possibilità di leggere gli stati mentali di qualcuno a partire dai suoi
movimenti, un risultato promettente anche per una migliore integrazione sociale
delle persone autistiche. “I bambini autistici si muovono in un modo un po'
diverso e soprattutto meno espressivo: è più difficile interpretare ciò che
vogliono fare finché non compiono l’azione” spiega Becchio, ricercatrice all’Iit
e docente al Dipartimento di psicologia dell’Università di Torino. “Pensiamo
che proprio l’avere schemi di movimento anomali li porti poi a interpretare con
difficoltà i movimenti degli altri. Quando noi vediamo qualcuno muoversi per
intuire cosa vuol fare ci immedesimiamo: “mappiamo” istintivamente i suoi
movimenti sui nostri e usiamo la conoscenza del nostro corpo per dare un
significato alle azioni altrui. Ma se il nostro modo di muoverci è diverso
dagli altri questa “mappatura” è incompleta, e non riusciamo più a leggere le
intenzioni”. Perché un’intelligenza artificiale che osserva un gesto, tramite
una camera a infrarossi, con una precisione al centesimo di secondo, e impara
quali sono i dettagli che permettono di cogliere il senso di un’azione – con
risultati esatti nel 9p per cento dei casi se le intenzioni possibili sono due
e nell’80 per cento se sono quattro – può essere un prezioso strumento di
riabilitazione. “Grazie a questi studi potremo insegnare ai bambini autistici a
muoversi in un modo più “espressivo”. Così per loro sarà anche più facile
leggere i movimenti altrui e cogliere gli elementi non verbali della
comunicazione” spiega Becchio. “In questo modo le loro relazioni sociali
diventeranno più fluide”. E da questo approccio potrà trarre benefici anche il
“rapporto” tra umani e macchine: “I robot umanoidi, come iCub dell’Iit, sono
ancora poco “leggibili” per noi: i loro gesti non suggeriscono nessuno stato
mentale né ci lasciamo prevedere ciò che il robot farà. Invece la nostra
interazione con gli altri esseri umani è resa più naturale dall’intuizione: non
reagiamo semplicemente alle azioni degli altri, ma tentiamo di continuo di
prevederle” sottolinea Becchio. “Il nostro sistema ci permetterà di rendere i
robot più trasparenti e amichevoli”.
Giuliano Aluffi – Scienze – Il Venerdì di La
Repubblica – 8 dicembre 2017-
Nessun commento:
Posta un commento