Blog

Può un’AI leggere la mente?

Introduzione

L’uso sempre più quotidiano delle AI permette già di poter analizzare in modo più approfondito la comunicazione verbale e non verbale di una persona. Questo scenario potrebbe diventare realtà in normali contesti di videocall (già Microsoft ha annunciato che Copilot è in grado di riconoscere i punti principali di un meeting e di estrapolarli. Come non è detto saperlo). Infatti sono già disponibili AI come Cogito addestrate appositamente per analizzare il paraverbale di una comunicazione.

Diciamocelo chiaramente: a chi non piacerebbe avere un programma che possa indicare se l’interlocutore sta dicendo la verità o se sta mentendo? A me molto, tanto che ho speso anni a studiare la materia. Ma questa è un’altra storia. Torniamo a noi: ha senso affidarsi ad un AI per monitorare l’emozione delle persone? E quali risvolti potrebbe avere? Il fatto di essere in grado di relizzare qualcosa implica che dobbiamo per forza farlo?

Emotion detection VS deception detection

Riconoscere le emozioni ed individuare la menzogna sono due cose diverse. Il primo è più semplice, il secondo molto più complesso. Se il corpo esprime naturalmente emozioni (basti pensare al fatto che il nostro volto con 43 muscoli riesce ad ottenere 10k combinazioni, mica pizza e fichi) e che molte di queste espressioni sono universali, è anche vero che NON esistono segnali universali di menzogna. Non ci sono. Nada. Zero. Mi dispiace, sarebbe molto più semplice. Ma non è così. Una persona può incrociare le braccia perchè ha freddo, perchè è comoda, perchè non ha tasche in cui infilare le mani e scaricare il peso delle spalle o perchè sta mentendo. Affermare che una persona stia mentendo meramente perchè ha spostato lo sguardo in una certa direzione o perchè ha aumentato il blink rate è semplicemente fallace. La ricerca ha ampiamente dimostrato a riguardo.

Le microespressioni

La serie Lie To Me ha portato all’attenzione del pubblico le microespressioni facciali e la conseguente produzione di materiale spesso di bassa qualità che ne è conseguito ha cavalcato l’onda portando a collegare le microespressioni con la menzogna. Ma ancora una volta non è così: le microespressioni sono una manifestazione di emozione molto veloce (1/25 di secondo!) e molto affidabile. Sono anche meno comuni di quanto la TV abbia portato a credere. Asserire che una persona stia mentendo solo perchè ha manifestato una certa microespressione è ancora una volta fallace.

Il corpo manifesta agio e disagio, tramite espressioni facciali e postura. E qui arriva il bello: persone sincere possono manifestare disagio e segnali di menzogna mentre persone ingannevoli possono mostrare segnali di agio ed assenza di menzogna. Bella fregatura, eh? Ci possono essere soggetti in forte depressione (lo stato vero) che adottano comportamenti di masking come sorrisi e battute (comportamenti di menzogna). Come si fa quindi? Ascoltando le parole. Ed incrociando il tutto.

Le persone intendono sempre quello che dicono

Le parole dicono molto più di quanto faccia il corpo. La scelta lessicale non è mai casuale, anche quando un soggetto sta mentendo. Le parole arrivano sempre da qualche parte, non arrivano mai dal nulla. Un’AI può veramente comprendere le sfumature del dizionario personale dell’individuo? Può veramente capire che se quella persona in particolare ha usato il termine “macchina” e non “automobile” è perchè sotto c’è di più?

A tutto questo si aggiungono altre implicazioni fra cui quelle di tipo legale e di privacy in cui non mi addentro perchè non è la mia materia.

Concludendo

L’introduzione di questo genere di AI in contesti ad esempio forensi può essere un enorme aiuto a professionisti qualificati, non sostituendosi ad essi ma fornendo loro maggiori dati su cui basarsi. Professionisti qualificati in contesti specifici. Perchè alla fine è solo l’abilità del professionista a fare la differenza. La sensibilità che ha acquisito in anni di studio, di preparazione, di training e di effettivo esercizio. Una sensibilità che non si può racchiudere in un algoritmo, perchè è direttamente connessa alla vita intera dell’individuo. In una parola: expertise.

Ammettendo di avere un’AI che possa dare indicazioni molto precise dello stato emozionale dei partecipanti di un meeting, come si utilizza l’informazione? Ma sopratutto, siamo veramente disposti a dare in outsourcing ad una macchina la capacità unica che ci contraddistingue come mammiferi?

Se teniamo presente che sopratutto gli uomini hanno scarsa capacità di riconoscere le espressioni emozionali sui volti, come impatterà tutto questo sulla qualità generale di empatia della nostra società? Guardiamo a come ha impattato la commercializzazione dei navigatori satellitari sulla capacità media di navigazione cartografica e mnemonica: quanti preferiscono il Tuttocittà a Maps?

Vogliamo veramente lo stesso risultato con le emozioni?

Jacopo Barillari

HAI DELLE DOMANDE DA FARMI?

Compila il box qui sotto e sarò felice di risponderti nel più breve tempo possibile.

Image by Freepik

Indice

altro dal blog