Etichette

domenica 10 dicembre 2017

Lo Sapevate Che: Adesso il computer ci legge nel pensiero. E aiuterà gli autistici...



La mano si allunga verso la bottiglia d’acqua e il computer sa già se vorrò bere o passarla aun commensale. Il giocatore di poker muove la fiche sul tavolo per rilanciare e il computer capisce se le sue carte sono buone oppure è un bluff. Non si tratta di potere divinatorio, ma di un nuovo tipo di lettura automatica del pensiero a partire dai micromovimenti che tradiscono le nostre intenzioni. È riuscito a realizzarlo un team italiano, guidato da Cristina Becchio, dell’Istituto italiano di tecnologia di Genova, che ha pubblicato la ricerca su Physics of Life Reviews. Ed è la prima volta che viene mostrata sperimentalmente la possibilità di leggere gli stati mentali di qualcuno a partire dai suoi movimenti, un risultato promettente anche per una migliore integrazione sociale delle persone autistiche. “I bambini autistici si muovono in un modo un po' diverso e soprattutto meno espressivo: è più difficile interpretare ciò che vogliono fare finché non compiono l’azione” spiega Becchio, ricercatrice all’Iit e docente al Dipartimento di psicologia dell’Università di Torino. “Pensiamo che proprio l’avere schemi di movimento anomali li porti poi a interpretare con difficoltà i movimenti degli altri. Quando noi vediamo qualcuno muoversi per intuire cosa vuol fare ci immedesimiamo: “mappiamo” istintivamente i suoi movimenti sui nostri e usiamo la conoscenza del nostro corpo per dare un significato alle azioni altrui. Ma se il nostro modo di muoverci è diverso dagli altri questa “mappatura” è incompleta, e non riusciamo più a leggere le intenzioni”. Perché un’intelligenza artificiale che osserva un gesto, tramite una camera a infrarossi, con una precisione al centesimo di secondo, e impara quali sono i dettagli che permettono di cogliere il senso di un’azione – con risultati esatti nel 9p per cento dei casi se le intenzioni possibili sono due e nell’80 per cento se sono quattro – può essere un prezioso strumento di riabilitazione. “Grazie a questi studi potremo insegnare ai bambini autistici a muoversi in un modo più “espressivo”. Così per loro sarà anche più facile leggere i movimenti altrui e cogliere gli elementi non verbali della comunicazione” spiega Becchio. “In questo modo le loro relazioni sociali diventeranno più fluide”. E da questo approccio potrà trarre benefici anche il “rapporto” tra umani e macchine: “I robot umanoidi, come iCub dell’Iit, sono ancora poco “leggibili” per noi: i loro gesti non suggeriscono nessuno stato mentale né ci lasciamo prevedere ciò che il robot farà. Invece la nostra interazione con gli altri esseri umani è resa più naturale dall’intuizione: non reagiamo semplicemente alle azioni degli altri, ma tentiamo di continuo di prevederle” sottolinea Becchio. “Il nostro sistema ci permetterà di rendere i robot più trasparenti e amichevoli”.
Giuliano Aluffi – Scienze – Il Venerdì di La Repubblica – 8 dicembre 2017-

Nessun commento:

Posta un commento