L’intelligenza artificiale può generare un’immagine di ciò che una persona sta pensando con una precisione dell’83%

0
703

I ricercatori dell’Università di Helsinki hanno sviluppato una tecnica in cui un computer modella la percezione visiva monitorando i segnali del cervello umano.

In un certo senso, è come se il computer cercasse di immaginare cosa stesse pensando un essere umano .

Come risultato di questa immaginazione, il computer è in grado di produrre informazioni completamente nuove, come immagini di fantasia che non erano mai state viste prima.

La tecnica si basa su una nuova interfaccia cervello-computer. In precedenza, interfacce cervello-computer simili erano in grado di eseguire comunicazioni unidirezionali da cervello a computer, come scrivere singole lettere o spostare un cursore.

Per quanto è noto, il nuovo studio è il primo in cui sia la presentazione del computer delle informazioni che i segnali cerebrali sono stati modellati simultaneamente utilizzando metodi di intelligenza artificiale.

Le immagini che corrispondevano alle caratteristiche visive su cui i partecipanti si stavano concentrando sono state generate attraverso l’interazione tra le risposte del cervello umano e una rete neurale generativa.

Lo studio è stato pubblicato sulla rivista Scientific Reports a settembre.

Modelli generativi neuroadattivi

I ricercatori chiamano questo metodo modellazione generativa neuroadattivo.

Un totale di 31 volontari hanno partecipato a uno studio che ha valutato l’efficacia della tecnica. Ai partecipanti sono state mostrate centinaia di immagini generate dall’intelligenza artificiale di persone dall’aspetto diverso durante la registrazione del loro EEG.

Ai soggetti è stato chiesto di concentrarsi su alcune caratteristiche, come i volti che sembravano vecchi o sorridevano. Mentre osservavano una serie di immagini del viso presentate rapidamente, gli EEG dei soggetti sono stati alimentati a una rete neurale, che ha dedotto se qualsiasi immagine fosse stata rilevata dal cervello come corrispondente a ciò che i soggetti stavano cercando.

Sulla base di queste informazioni, la rete neurale ha adattato la sua stima al tipo di volti a cui le persone stavano pensando.

Infine, le immagini generate dal computer sono state valutate dai partecipanti e corrispondevano quasi perfettamente alle caratteristiche a cui i partecipanti stavano pensando. La precisione dell’esperimento è stata dell’83%.

“La tecnica combina le risposte umane naturali con la capacità del computer di creare nuove informazioni.

Nell’esperimento, ai partecipanti è stato chiesto solo di guardare le immagini generate dal computer.

Il computer, a sua volta, ha modellato le immagini visualizzate e la reazione umana verso le immagini utilizzando le risposte del cervello umano.

Da questo, il computer può creare un’immagine completamente nuova che corrisponde all’intenzione dell’utente “, afferma Tuukka Ruotsalo, ricercatore dell’Accademia di Finlandia presso l’Università di Helsinki, Finlandia e Professore associato presso l’Università di Copenaghen, in Danimarca.

Possono essere esposti atteggiamenti inconsci

La generazione di immagini del volto umano è solo un esempio dei potenziali usi della tecnica. Un vantaggio pratico dello studio potrebbe essere che i computer possono aumentare la creatività umana.

“Se vuoi disegnare o illustrare qualcosa ma non sei in grado di farlo, il computer potrebbe aiutarti a raggiungere il tuo obiettivo. Potrebbe semplicemente osservare il centro dell’attenzione e prevedere cosa vorresti creare “, afferma Ruotsalo. Tuttavia, i ricercatori ritengono che la tecnica possa essere utilizzata per acquisire la comprensione della percezione e dei processi sottostanti nella nostra mente.

“La tecnica non riconosce i pensieri ma risponde piuttosto alle associazioni che abbiamo con le categorie mentali. Pertanto, anche se non siamo in grado di scoprire l’identità di una specifica “persona anziana” a cui stava pensando un partecipante, possiamo ottenere una comprensione di ciò che associano alla vecchiaia. Pertanto, riteniamo che possa fornire un nuovo modo per acquisire informazioni sui processi sociali, cognitivi ed emotivi “, afferma il ricercatore senior Michiel Spapé.

Secondo Spapé, questo è interessante anche dal punto di vista psicologico.

“L’idea di una persona anziana può essere molto diversa da quella di un’altra. Attualmente stiamo scoprendo se la nostra tecnica potrebbe esporre associazioni inconsce, ad esempio controllando se il computer riproduce sempre le persone anziane come, diciamo, uomini sorridenti “.


L’intelligenza artificiale (AI) ha cambiato radicalmente il mondo così come lo conosciamo. I progressi fondamentali sono associati all’apprendimento automatico (ML), il ramo dell’IA che si occupa di consentire alle macchine di apprendere dai dati. Un ruolo centrale è svolto dal deep learning (DL) (LeCun, Bengio, & Hinton, 2015), una tecnica basata su reti neurali artificiali orientate a supportare in modo efficiente l’apprendimento.

Poiché DL è stato accoppiato con l’apprendimento per rinforzo (RL, la nozione che un agente impara interagendo con il mondo reale ed essendo ricompensato o penalizzato di conseguenza), è stato dimostrato che è in grado di fornire, a volte, prestazioni sovrumane.

In un esempio fondamentale, il programma per computer AlphaGo è riuscito notoriamente a battere costantemente il campione del mondo a Go, fornendo allo stesso tempo nuove intuizioni su strategie di gioco di successo.

Questi risultati rivoluzionari hanno generato un’eccessiva fiducia nell’IA e in ciò che può ottenere, soprattutto a breve termine. Il capitale di rischio sta affollando le start-up AI.

Le persone si aspettano che i veicoli autonomi appaiano sulle nostre strade in qualsiasi momento. Alcuni gravi incidenti recenti, tuttavia, hanno sollevato bandiere rosse. Gli incidenti che hanno coinvolto prototipi di auto autonome hanno portato a vittime (Tesla Deaths, 2020), mettendo in dubbio quanto la tecnologia sia davvero pronta per l’uso in situazioni potenzialmente pericolose, in cui uomini e macchine interagiscono strettamente. Sorprendentemente, questi incidenti sono stati causati dall’incapacità del veicolo di svolgere attività relativamente semplici, come il rilevamento di oggetti o il rilevamento e l’evitamento degli ostacoli (Hawkins, 2019).

In effetti, è necessario disporre di funzioni molto più sofisticate prima che l’IA possa essere implementata in sicurezza in situazioni ad alto rischio e potenzialmente pericolose. Potrebbe essere necessario rivedere le aspettative sull’attuale utilizzo dell’IA.

Considera, ad esempio, la guida autonoma. Un’auto intelligente deve fare previsioni affidabili sul comportamento umano in tempo reale, ad esempio, al fine di regolare preventivamente velocità e rotta per far fronte alla possibile decisione di un bambino di attraversare bruscamente la strada davanti a lui. Le reti neurali profonde possono identificare in modo efficiente le azioni umane nei video in streaming, come schemi di movimento (Singh, Saha, Sapienza, Torr e Cuzzolin, 2017).

Quest’ultimo, tuttavia, può essere ingannevole, poiché gli umani possono cambiare improvvisamente idea in base ai propri processi mentali, pensieri e motivazioni e alle cose che vedono intorno a loro. Nel nostro esempio, i bambini che in precedenza camminavano sul marciapiede verso la scuola possono individuare un furgone dei gelati dall’altra parte della strada e decidere di attraversare la strada per prendere il gelato.

Nessun sistema predittivo che funzioni esclusivamente sul movimento osservato in passato potrebbe essere sufficientemente accurato e affidabile in ambienti così complessi, senza tenere conto del contesto e della natura degli altri agenti coinvolti. Gli esseri umani, d’altra parte, possono prevedere il comportamento futuro degli altri anche quando non è presente alcun movimento, semplicemente valutando rapidamente il “ tipo ” di persona coinvolta e la scena che li circonda (ad esempio, è probabile che decida una persona anziana in piedi in un corridoio prendere l’ascensore, piuttosto che le scale).

Ciò segnala la necessità per l’IA di affrontare la cognizione “ calda ”, ad esempio il modo in cui il pensiero di una persona è influenzato dal proprio stato emotivo (Lawrence, Clark, Labuzetta, Sahakian, & Vyakarnum, 2008; Taylor Tavares, Drevets e Sahakian, 2003). La cognizione calda si riferisce alla cognizione emotiva e sociale, inclusa la Teoria della Mente (ToM). Contrasta con la cognizione “fredda”, in cui l’elaborazione delle informazioni è indipendente dal coinvolgimento emotivo.

La cognizione sociale mira a comprendere i fenomeni sociali (cioè il modo in cui le persone trattano con le altre persone) indagando i processi cognitivi sottostanti. Con l’emergere di costrutti artificiali in grado di mostrare una certa intelligenza (limitata), il concetto deve essere esteso a come gli esseri umani trattano con macchine intelligenti (ad esempio il bot conversazionale di una compagnia aerea) e viceversa.

Theory of Mind
ToM è una componente importante della cognizione sociale (Baron-Cohen, 1995). Nella psicologia cognitiva, il termine si riferisce all’insieme di processi e funzioni della mente umana che consentono a un individuo di attribuire stati mentali agli altri. 

Ad esempio, guardando John che ispeziona l’interno del frigorifero, posso dedurre che “John ha fame”.

Potrei quindi alzarmi per offrirgli del cibo che è nel frigorifero e un po ‘che è nell’armadio della cucina. La capacità di mettersi nei panni di qualcun altro è un vantaggio evolutivo cruciale per gli esseri umani, poiché ci consente di interagire meglio con il nostro ambiente e di cooperare in modo più efficace con i nostri coetanei. I due approcci dominanti alla ToM sono Theory-Theory (TT) e Simulation-Theory (ST; Harris, 1992).

TT sostiene che i bambini formulano teorie che poi confermano o smentiscono attraverso l’esperienza, proprio come farebbe uno scienziato.

TT è problematico nel suo presupposto che un individuo generi un numero molto elevato di teorie sulle altre persone e sul loro comportamento, contro il principio di “economia cognitiva” che ha dimostrato di caratterizzare varie funzioni mentali.

La ST, invece, difende un processo di simulazione che consiste nel prendere la prospettiva di qualcun altro per comprendere il suo ragionamento, utilizzando molti degli stessi meccanismi cognitivi coinvolti nel prendere decisioni da una prospettiva in prima persona.

Questo è ciò che porta al “risparmio cognitivo” nel principio di “economia cognitiva”. Mentre alcuni lavori di TT sono effettivamente interessati all’economia cognitiva (Gershman, Horvitz, & Tenenbaum, 2015) e all’efficienza computazionale (Baker, Jara-Ettinger, Saxe, & Tenenbaum, 2017; Pöppel & Kopp, 2018), l’idea di ‘risparmio cognitivo ‘ottenuto dalla condivisione dei meccanismi decisionali in prima persona sembra essere meno sviluppato.

Una macchina teoria della mente
Affermiamo che ToM deve essere incorporato in macchine intelligenti se vogliono condividere senza problemi ambienti costruiti da esseri umani per esseri umani. Per tornare al nostro esempio iniziale, l’ostacolo principale verso l’utilizzo effettivo dei veicoli autonomi è la sicurezza. La sicurezza si basa sul fatto che le auto intelligenti siano in grado di comprendere e prevedere il comportamento umano.

Come affermato in precedenza, il riconoscimento ingenuo di schemi non è in grado di produrre previsioni accurate di comportamenti umani complessi e spontanei. Il problema dell’anticipazione del comportamento umano è infatti solo recentemente salito all’attenzione della comunità della visione artificiale (Felsen, 2019), mentre, al contrario, è stato studiato da più tempo dai ricercatori di robotica, soprattutto nel contesto umano– interazione robotica (Koppula & Saxena, 2016).

Ciò che è veramente richiesto è comprendere come ragionano gli esseri umani, nonché i loro obiettivi e le loro motivazioni.

In termini di potenziale impatto, i costrutti di ToM AI potrebbero svolgere un ruolo significativo nell’assistenza sanitaria empatica, ad esempio nelle interazioni con individui con malattie neurologiche, tra cui l’Alzheimer, e disturbi psichiatrici, come depressione, disturbo dello spettro autistico e schizofrenia.

Tali approcci potrebbero migliorare l’efficacia dei trattamenti psicologici, come la terapia cognitivo comportamentale o la consapevolezza. A più lungo termine, potremmo immaginare compagni robotici per disabili capaci di comprendere e proiettare emozioni. 

Il lavoro in quest’area avrebbe un impatto sull’attuale dibattito sull’IA morale, aiutando le macchine a prendere decisioni etiche in situazioni critiche. Man mano che le persone si rendono conto che le macchine sono in grado di ragionare come loro, ci sarà maggiore fiducia nell’IA.

Ad oggi, tuttavia, l’AI si è concentrata principalmente sulla cognizione “fredda”, in particolare su come estrarre informazioni dai dati. Ad esempio, le macchine sono estremamente brave, e migliori degli umani, nel giocare a giochi strategici come gli scacchi (in parte a causa del loro vantaggio schiacciante in termini di velocità di elaborazione).

In un contesto medico, si sono dimostrati in grado di diagnosticare il diabete da immagini retiniche con maggiore accuratezza rispetto a un medico umano (De Fauw et al., 2018). Interazioni fruttuose tra esseri umani e macchine sono al centro dell’apprendimento dell’imitazione (Ho & Ermon, 2016), un quadro in cui le ricompense sono sostituite da “tutorial” forniti dagli esseri umani alle macchine.

Il rovescio della medaglia è che gli sforzi passati nell’incorporare ToM nelle macchine hanno ampiamente trascurato l’aspetto cruciale dell’apprendimento. Il lavoro più rilevante è stato svolto nell’ambito di un sistema multi-agente, per cui un agente è un’entità che cerca autonomamente di raggiungere obiettivi. I modelli Belief-Desire-Intention (BDI) (Georgeff, Pell, Pollack, Tambe e Wooldridge, 1998) sono stati proposti per emulare il funzionamento della mente umana, anche se in modo semplicistico.

Sono stati anche fatti tentativi per implementare norme sociali che gli agenti devono seguire, o semplici “tratti della personalità”. Gli studi sono stati condotti da prospettive teoriche tanto varie quanto i processi decisionali di Markov (Baker, Saxe e Tenenbaum, 2011), RL multi-agente, robotica evolutiva o teoria dei giochi (Yoshida, Dolan e Friston, 2008).

La stragrande maggioranza di questi modelli, tuttavia, non riesce a riflettere il reale funzionamento della mente umana. Un forte limite della maggior parte di loro è la loro incapacità di apprendere continuamente e dinamicamente dall’esperienza e, quindi, aggiornare le regole stesse dell’apprendimento. Spesso si presume che gli stati mentali di altri agenti siano predeterminati. 

Inoltre, la maggior parte di questi modelli utilizza processi di ragionamento basati esclusivamente sulla logica proposizionale, che sembra riflettere il modo in cui gli esseri umani usano il linguaggio, ma non il modo effettivo in cui funziona il cervello, né il modo in cui la conoscenza è rappresentata e organizzata al suo interno.

Teoria della mente contro apprendimento della forza bruta
Una potenziale critica all’approccio ToM computazionale è che, in alcuni casi, l’apprendimento dalle osservazioni dirette di altri agenti potrebbe essere sufficiente per prevedere il loro comportamento futuro, senza cercare di inferire i loro stati mentali. 

Tuttavia, considerando ancora una volta lo scenario delle auto a guida autonoma, più revisioni (Rasouli & Tsotsos, 2020; Rudenko et al., 2019) hanno evidenziato l’insufficienza di modelli che mappano direttamente le osservazioni alle azioni. Un precedente lavoro sulla ToM computazionale (Baker et al., 2017) ha anche dimostrato che i modelli “basati su segnali”, che vanno direttamente dalle osservazioni agli stati mentali tramite il riconoscimento di schemi puri, hanno prestazioni peggiori dei modelli ToM in termini di accuratezza della previsione.

È importante sottolineare che gli approcci ToM macchina sono potenzialmente in grado non solo di prevedere il comportamento futuro di una persona, ma anche di fornire una spiegazione per il comportamento osservato, collegando, in un certo senso, aspetto ed essenza.

Uno scettico potrebbe anche sostenere che un approccio di apprendimento puro (profondo) potrebbe essere sufficiente per far emergere una ToM spontanea. In effetti, un importante lavoro recente (Rabinowitz et al., 2018) sostiene una filosofia simile, considerando la ToM computazionale come un problema di meta-apprendimento.

Sebbene i risultati ottenuti siano stati impressionanti (in particolare, la rete neurale degli autori ha imparato a superare un test simile a “Sally-Anne”, riconoscendo le false convinzioni di altri agenti; Wimmer e Perner, 1983), ciò ha richiesto enormi quantità di dati di addestramento. In effetti, Jara-Ettinger (2019) sottolinea che gli esperimenti riportati in Rabinowitz et al. (2018) hanno richiesto 32 milioni di campioni per imparare a eseguire l’inferenza degli obiettivi a un livello simile a quello di un bambino di 6 mesi.

Se i bambini imparassero ToM in questo modo, sarebbero necessarie 175.000 dimostrazioni etichettate ogni giorno durante quei 6 mesi.

Risultati più recenti mettono in dubbio la possibilità di un approccio basato sull’apprendimento puro per la ToM computazionale per ragioni ancora più fondamentali. Jara-Ettinger (2019) ha mostrato come ToM può essere lanciato come RL inverso (IRL), un framework RL molto popolare per l’apprendimento delle preferenze umane (o ‘funzioni di ricompensa’).

La maggior parte degli approcci IRL presuppone una qualche forma semplificata di razionalità umana. È noto da tempo, tuttavia, che gli esseri umani si discostano costantemente da questi presupposti (Tversky e Kahneman, 1975). Armstrong e Mindermann (2018) hanno dimostrato che, se non vengono fatte ipotesi sulla razionalità umana, le preferenze di un essere umano non possono essere recuperate solo dal comportamento, indipendentemente dalla quantità di dati da cui il sistema può imparare.

Anche l’adozione di principi simili al rasoio di Occam non risolve il problema. Va sottolineato che il risultato dell’impossibilità in Armstrong e Mindermann (2018) è di natura fondamentale e non è influenzato dalla quantità di dati di formazione o dall’espressività del sistema di apprendimento.

AI in psichiatria: alcuni approfondimenti
Utili approfondimenti su come raggiungere i nostri obiettivi possono provenire da una revisione del lavoro recente che applica l’IA alla psichiatria. In effetti, l’IA può anche aiutare la psichiatria, portando al potenziale per un circolo virtuoso. In un recente sondaggio informativo, Shatte, Hutchinson e Teague (2019) hanno riassunto i metodi e le applicazioni del ML nella salute mentale e hanno scoperto che sono emersi quattro campi di applicazione principali: rilevamento e diagnosi, trattamento e supporto della prognosi, salute pubblica e ricerca e clinica. amministrazione.

Hanno concluso che c’è ancora spazio significativo per applicare il ML ad altre aree della psicologia e della salute mentale oltre all’individuazione e alla diagnosi su cui si concentra la maggior parte degli studi sul ML. Durstewitz, Koppe e Meyer-Lindenberg (2019), in particolare, hanno esaminato l’uso della DL in psichiatria, con la motivazione che gli algoritmi DL spesso superano i precedenti metodi ML in molte applicazioni, suggerendo che potrebbero fornire guadagni simili in psichiatria.

Hanno scoperto che la DL è stata applicata principalmente alla diagnostica in psichiatria, ottenendo risultati preliminari convincenti. Tuttavia, il piccolo numero di tali studi non supporta ancora alcuna conclusione definitiva. Durstewitz et al. (2019) hanno anche discusso alcune sfide per la DL in psichiatria, come piccole dimensioni del campione, e alcune aree promettenti per il loro sviluppo futuro, come l’interpretabilità, potenzialmente attraverso algoritmi più ispirati biologicamente o cognitivamente.

Anche robot autonomi sono stati recentemente impiegati nelle case, per lavorare con bambini con autismo, e hanno dimostrato di portare a miglioramenti nelle loro abilità matematiche e sociali, attraverso la personalizzazione del gioco e la modellazione del coinvolgimento da segnali comportamentali (Jain, Thiagarajan, Shi, Clabaugh, E Matarić, 2020). I ricercatori coinvolti in questo progetto stanno ora pianificando di estendere la modellazione agli stati cognitivo-affettivi (ToM) dei bambini, comprese le emozioni come la confusione o l’eccitazione (Dawson, 2020).

Nel complesso, tuttavia, non siamo ancora in grado di facilitare un’efficace compagnia uomo-robot per il trattamento dei disturbi psichiatrici.

Machine Theory of Mind: una proposta
Una possibile via da seguire, che qui supportiamo, è di sfruttare i successi di deep e RL non tentando di apprendere in modo brute-force mappature da input grezzi (ad esempio video o parlato) a umani intenzioni e processi di ragionamento, ma usandoli come strumenti per costruire strutture ToM artificiali adeguate che imitano il comportamento effettivo della mente umana, in un lavoro interdisciplinare che incorpora intuizioni e prove neuroscientifiche.

Gli esseri umani possono prevedere gli stati mentali e le azioni degli altri prevedendo come essi stessi agirebbero in una data situazione, un meccanismo chiamato “simulazione interna”. Simulazioni simili hanno anche un ruolo in altre ben note funzioni mentali, come la memoria episodica e autobiografica, il pensiero controfattuale e il pensiero episodico futuro.

In riferimento diretto al concetto di cognizione calda, la simulazione interna è molto correlata all’empatia, come meccanismo che ci consente di comprendere meglio gli altri.

Le strutture cerebrali chiamate “neuroni specchio” sembrano supportare questa funzione mentale, poiché si attivano sia quando un individuo esegue effettivamente un’azione sia quando vede qualcun altro fare la stessa cosa (Gallese e Goldman, 1998).

In un altro processo rilevante, gli esseri umani inseriscono altre persone in categorie “stereotipate” caratterizzate da tratti di personalità rozzi, al fine di speculare su cosa potrebbero fare. Infatti, le regioni ventrale e dorsale della corteccia prefrontale mediale sono specializzate nel rispondere a elementi legati al “sé” e all ‘”altro” (Mitchell, Macrae, & Banaji, 2006) e i loro modelli di attivazione sembrano adattarsi a chi è eseguire l’azione che osserviamo.

È quindi possibile delineare un approccio computazionale per modellare i processi di ragionamento di altri agenti, incentrato sulla generazione flessibile di simulazioni ToM per classi specifiche di agenti e contesti.

Come accade nel cervello umano, tali simulazioni non dovrebbero essere costruite da zero per nessuna nuova classe di agenti, ma dovrebbero derivare dall’assemblaggio in modi diversi di una serie di “ blocchi ” di base (Andreas, Rohrbach, Darrell e Klein, 2016) . Tali blocchi sarebbero reti neurali profonde che rappresentano relazioni logiche tra stati mentali (Liu et al., 2016).

Ad esempio, se osservo una persona arrabbiata, posso prevedere che potrebbe ferire qualcuno.

Il modo migliore per collegare questi blocchi per formare la “migliore” simulazione possibile per la scena osservata e gli agenti coinvolti verrebbe quindi appreso dall’esperienza.

Ad esempio, in un corridoio in cui prendere le scale o prendere l’ascensore sono entrambe le opzioni, potremmo dedurre attraverso una simulazione su misura che una persona anziana e fragile prenderebbe l’ascensore, mentre un giovane adulto sano potrebbe salire le scale.

Ciò può essere fatto secondo i principi di RL (Mnih et al., 2015), premiando le strutture che portano a previsioni che corrispondono accuratamente al comportamento osservato e penalizzando quelle che portano a quelle imprecise.

La via da percorrere
Restano ostacoli significativi sulla strada per un approccio efficace e ispirato alle neuroscienze alla toM macchina.

Negli esseri umani, le simulazioni dei processi mentali di altre persone vengono costruite lentamente nel corso degli anni, mentre viviamo le nostre vite. È probabile che la quantità di dati necessari per costruire il meccanismo flessibile ricercato per costruire simulazioni ToM specifiche per l’agente sia grande.

Tuttavia, riteniamo che il concetto sia maturo per la prova in almeno domini di applicazione relativamente ristretti, come la guida autonoma, in cui gli esseri umani utilizzano solo una frazione delle loro capacità cognitive e le loro possibili intenzioni sono limitate a un piccolo numero di casi (es. Devo girare a destra o fermarmi? ‘).

È ragionevole aspettarsi che la quantità di dati necessari sia inferiore a quella richiesta dagli approcci ingenui discussi sopra.

Il cervello umano è straordinariamente versatile: può elaborare e calcolare un migliaio di compiti diversi, mentre apprendiamo da ciascuno di essi e trasferiamo la conoscenza tra di loro. 

Quando guidiamo, ad esempio, utilizziamo le conoscenze raccolte giocando, diciamo, con i nostri nipoti, conoscenze che ci consentono di creare un buon modello generale dei modelli di comportamento dei bambini. 

In questo senso, una macchina ToM efficace e ispirata dall’uomo deve emergere dalle macchine che apprendono per affrontare compiti multipli e liberamente correlati, piuttosto che concentrarsi su un obiettivo semplice e ristretto.

Anche la convalida empirica è una questione aperta. Sebbene esistano più set di dati progettati per testare il comportamento umano osservato nei video, semplicemente non esiste un benchmark per valutare le capacità ToM di un algoritmo. 

Probabilmente, le annotazioni dello stato mentale dovranno essere fornite ai dati che catturano il comportamento osservato delle persone, descrivendo, ad esempio, lo stato emotivo, il desiderio e l’intenzione dei vari agenti coinvolti in un dato momento. È probabile che ciò richieda molto tempo e richieda l’assistenza di esperti di neuroscienze, psicologia cognitiva e psichiatria biologica.

Infine, ma non meno importante, sarà anche necessario escogitare misure di prestazione adeguate per valutare la qualità degli stati mentali dedotti. Una possibilità è valutare l’accuratezza delle predizioni ToM sul comportamento osservato degli agenti, utilizzando misure comunemente accettate in ML come precisione e richiamo. 

L’alternativa è confrontare direttamente le attribuzioni dello stato mentale generate dalla macchina con le ipotesi umane in test interdisciplinari combinati e innovativi.

Ciò rafforza la nostra opinione che ci sia una forte necessità per coloro che operano nel campo della medicina psicologica di contribuire allo sviluppo dell’IA. Ciò non solo faciliterà una migliore interazione uomo-macchina nell’assistenza sanitaria, anche nel settore della salute mentale, ma dovrebbe promuovere un approccio etico molto necessario nell’IA.

Riferimenti

Andreas, J., Rohrbach, M., Darrell, T., & Klein, D. (2016). Neural module networks. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition 2016, pp. 39–48. doi: 10.1109/CVPR.2016.12 [CrossRef]

Armstrong, S., & Mindermann, S. (2018). Occam’s razor is insufficient to infer the preferences of irrational agents. Advances in Neural Information Processing Systems 31: Annual Conference on Neural Information Processing Systems 2018, NeurIPS 2018, pp. 5603–5614. Retrieved from http://papers.nips.cc/paper/7803-occams-razor-is-insufficient-to-infer-the-preferences-of-irrational-agents

Baker, C., Jara-Ettinger, J., Saxe, R., & Tenenbaum, J. B. (2017). Rational quantitative attribution of beliefs, desires and percepts in human mentalizing. Nature Human Behaviour, 1, 0064. doi: 10.1038/s41562-017-0064 [CrossRef] [Google Scholar]

Baker, C., Saxe, R., & Tenenbaum, J. B. (2011). Bayesian theory of mind: Modeling joint belief-desire attribution. Proceedings of the Thirtieth Third Annual Conference of the Cognitive Science Society, 33(33), pp. 2469–2474. Retrieved from http://csjarchive.cogsci.rpi.edu/Proceedings/2011/papers/0583/paper0583.pdf

Baron-Cohen, S. (1995). Mindblindness: An essay on autism and theory of mind. The MIT Press. [Google Scholar]

Dawson, C. (2020). Socially assistive robot helps children with autism learn. Retrieved from https://viterbischool.usc.edu/news/2020/02/socially-assistive-robot-helps-children-with-autism-learn/

De Fauw, J., Ledsam, J. R., Romera-Paredes, B., Nikolov, S., Tomasev, N., Blackwell, S., … Ronneberger, O. (2018). Clinically applicable deep learning for diagnosis and referral in retinal disease. Nature Medicine, 24(9), 1342–1350. doi: 10.1038/s41591-018-0107-6 [PubMed] [CrossRef] [Google Scholar]

Durstewitz, D., Koppe, G., & Meyer-Lindenberg, A. (2019). Deep neural networks in psychiatry. Nature Molecular Psychiatry, 24, 1583–1598. doi: 10.1038/s41380-019-0365-9 [PubMed] [CrossRef] [Google Scholar]

Felsen, P. (2019). Learning to predict human behavior from video. Technical Report No. UCB/EECS-201966, University of California at Berkeley Retrieved from https://www2.eecs.berkeley.edu/Pubs/TechRpts/2019/EECS-2019-66.pdf

Gallese, V., & Goldman, A. (1998). Mirror neurons and the simulation theory of mind-reading. Trends in Cognitive Sciences, 2(12), 493–501. doi: 10.1016/s1364-6613(98)01262-5 [PubMed] [CrossRef] [Google Scholar]

Georgeff, M., Pell, B., Pollack, M., Tambe, M., & Wooldridge, M. (1998). The belief-desire-intention model of agency. ATAL ‘98: Proceedings of the 5th International Workshop on Intelligent Agents V, Agent Theories, Architectures, and Languages, pp. 1–10. doi:10.5555/648205.749450 [CrossRef]

Gershman, S. J., Horvitz, E. J., & Tenenbaum, J. B. (2015). Computational rationality: A converging paradigm for intelligence in brains, minds and machines. Science (New York, N.Y.), 349, 273–278. doi: 10.1126/science.aac6076 [PubMed] [CrossRef] [Google Scholar]

Harris, P. L. (1992). From simulation to folk psychology: The case for development. Mind & Language, 7(1–2), 120–144. doi: 10.1111/j.1468-0017.1992.tb00201.x [CrossRef] [Google Scholar]

Hawkins, A. J. (2019). Serious safety lapses led to Uber’s fatal self-driving crash, new documents suggest. Retrieved from https://www.theverge.com/2019/11/6/20951385/uber-self-driving-crash-death-reason-ntsb-dcouments

Ho, J., & Ermon, S. (2016). Generative adversarial limitation learning. Advances in Neural Information Processing Systems (NIPS) 2016, pp. 4565–4573. Retrieved from http://papers.nips.cc/paper/6391-generative-adversarial-imitation-learning

Jain, S., Thiagarajan, B., Shi, Z., Clabaugh, C., & Matarić, M. J. (2020). Modeling engagement in long-term, in-home socially assistive robot interventions for children with autism spectrum disorders. Science Robotics, 5(39), eaaz3791. doi: 10.1126/scirobotics.aaz3791 [CrossRef] [Google Scholar]

Jara-Ettinger, J. (2019). Theory of mind as inverse reinforcement learning. Current Opinion in Behavioral Sciences, 29, 105–110. doi: 10.1016/j.cobeha.2019.04.010 [CrossRef] [Google Scholar]

Koppula, H. S., & Saxena, A. (2016). Anticipating human activities using object affordances for reactive robotic response. IEEE Transactions on Pattern Analysis and Machine Intelligence, 38(1), 14–29. doi: 10.1109/TPAMI.2015.2430335 [PubMed] [CrossRef] [Google Scholar]

Lawrence, A., Clark, L., Labuzetta, J. N., Sahakian, B. J., & Vyakarnum, S. (2008). The innovative brain. Nature, 456, 168–169. doi: 10.1038/456168a. [PubMed] [CrossRef] [Google Scholar]

LeCun, Y., Bengio, Y., & Hinton, G. (2015). Deep learning. Nature, 521, 436–444. doi: 10.1038/nature14539 [PubMed] [CrossRef] [Google Scholar]

Liu, Q., Jiang, H., Evdokimov, A., Ling, Z., Zhu, X., Wei, S., & Hu, Y. (2016). Probabilistic reasoning via deep learning: Neural association models. arXiv preprint arXiv, 1603.07704. Retrieved from https://arxiv.org/abs/1603.07704 [Google Scholar]

Mitchell, J. P., Macrae, C. N., & Banaji, M. R. (2006). Dissociable medial prefrontal contributions to judgments of similar and dissimilar others. Neuron, 50(4), 655–663. doi: 10.1016/j.neuron.2006.03.040 [PubMed] [CrossRef] [Google Scholar]

Mnih, V., Kavukcuoglu, K., Silver, D., Rusu, A. A., Veness, J., Bellemare, M. G., … Petersen, S. (2015). Human-level control through deep reinforcement learning. Nature, 518, 529–533. doi: 10.1038/nature14236 [PubMed] [CrossRef] [Google Scholar]

Pöppel J., & Kopp S. (2018). Satisficing models of Bayesian Theory of Mind for explaining behavior of differently uncertain agents. Proceedings of the 17th International Conference on Autonomous Agents and Multiagent Systems (AAMAS 2018), pp. 470–478. Retrieved from https://pdfs.semanticscholar.org/b457/e3f1d1bf0b8310463f5e59f765f24da020e7.pdf

Rabinowitz, N., Perbet, F., Song, F., Zhang, C., Eslami, S. M. A., & Botvinick, M. (2018). Machine Theory of Mind. Proceedings of the 35th International Conference on Machine Learning, 80, pp. 4218–4227. Retrieved from http://proceedings.mlr.press/v80/rabinowitz18a.html

Rasouli, A., & Tsotsos, J. K. (2020). Autonomous vehicles that interact with pedestrians: A survey of theory and practice. IEEE Transactions on Intelligent Transportation Systems, 21(3), 900–918. doi: 10.1109/TITS.2019.2901817 [CrossRef] [Google Scholar]

Rudenko A., Palmieri L., Herman M., Kitani K.M., Gavrila D. M., & Arras K. O. (2019). Human motion trajectory prediction: A survey. arXiv preprint arXiv, 1905.06113. Retrieved from https://arxiv.org/abs/1905.06113 [Google Scholar]

Shatte, A. B. R., Hutchinson, D. M., & Teague, S. J. (2019). Machine learning in mental health: A scoping review of methods and applications. Psychological Medicine, 49, 1426–1448. doi: 10.1017/S0033291719000151 [PubMed] [CrossRef] [Google Scholar]

Singh, G., Saha, S., Sapienza, M., Torr, P., & Cuzzolin, F. (2017). Online real-time multiple spatiotemporal action localisation and prediction. Proceedings of IEEE International Conference on Computer Vision, ICCV 2017, pp. 3657–3666. doi:10.1109/ICCV.2017.393 [CrossRef]

Taylor Tavares, J. V., Drevets, W. C., & Sahakian, B. J. (2003). Cognition in mania and depression. Psychological Medicine, 33(6), 959–967. doi: 10.1017/S0033291703008432 [PubMed] [CrossRef] [Google Scholar]

Tesla Deaths. (2020). Tesla deaths: Every Tesla accident resulting in death. Retrieved March 10, 2020, from https://www.tesladeaths.com/

Tversky, A., & Kahneman, D. (1975). Judgment under uncertainty: Heuristics and biases. Science (New York, N.Y.), 185(4157), 1124–1131. doi: 10.1126/science.185.4157.1124. [PubMed] [CrossRef] [Google Scholar]

Wimmer, H., & Perner, J. (1983). Beliefs about beliefs: Representation and constraining function of wrong beliefs in young children’s understanding of deception. Cognition, 13(1), 103–128. doi: 10.1016/0010-0277(83)90004-5 [PubMed] [CrossRef] [Google Scholar]

Yoshida, W., Dolan, R. J., & Friston, K. J. (2008). Game Theory of Mind. PLoS Computational Biology, 4(12), e1000254. doi: 10.1371/journal.pcbi.1000254 [PMC free article] [PubMed] [CrossRef] [Google Scholar]


Source: University of Helsinki

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.