AI di Meta legge il pensiero: rischi e scenari etici
L’AI di Meta può leggere il pensiero.
Limiti e problemi di uno sviluppo incontrollato delle neurotecnologie.
di Michele Di Salvo
Meta AI ha sviluppato una tecnologia per decodificare l’attività cerebrale in testo tramite reti neurali avanzate. Questo progresso nell’interfaccia uomo-computer apre nuove possibilità per la comunicazione e l’interazione digitale, e solleva anche questioni etiche e di privacy
La ricerca, condotta dal Fundamental artificial intelligence research (Fair) di Meta a Parigi, in collaborazione con il Basque Center on Cognition, ha sviluppato un sistema rivoluzionario che legge letteralmente il pensiero.
Attraverso un sofisticato scanner i ricercatori sono riusciti a decodificare fino all’80% dei caratteri che i 35 partecipanti pensavano di digitare. Risultati sorprendenti che hanno permesso di catturare non solo le parole ma anche il contesto semantico del pensiero.
“Stiamo condividendo una svolta verso la comprensione dei meccanismi neurali che coordinano la produzione del linguaggio nel cervello umano. Studiare il cervello durante il linguaggio si è sempre dimostrato estremamente impegnativo per la neuroscienza, in parte a causa di un semplice problema tecnico: muovere la bocca e la lingua corrompe pesantemente i segnali di neuroimaging”, ha dichiarato Meta nel post di presentazione. Limitazioni che sono state superate grazie all’intelligenza artificiale e che aprono prospettive rivoluzionarie, aprendo nuove possibilità per persone con disabilità comunicative.
I ricercatori hanno utilizzato la magnetoencefalografia (Meg) e la elettroencefalografia (Eeg), un sistema sinergico che poggia su un modello di intelligenza artificiale, Brain2Qwerty, che interpreta i segnali magnetici del cervello come se fossero tasti premuti su una tastiera invisibile. È come avere un traduttore simultaneo che, attraverso la lettura non invasiva dell’attività cerebrale, riesce a interpretare i pensieri e trasformarli in parole scritte.
Funziona così: durante il test, il volontario si siede all’interno del casco scanner Meg, che rileva i segnali magnetici generati dai neuroni mentre si attivano nel cervello. Successivamente il modello di intelligenza artificiale analizza quali segnali corrispondono a determinati tasti. Dopo un adeguato addestramento, l’AI riesce a prevedere le lettere che una persona sta pensando di digitare.
Lo spiega Meta nel dettaglio: “Scattando 1.000 immagini del cervello ogni secondo, possiamo individuare il momento esatto in cui i pensieri si trasformano in parole, sillabe e persino lettere. Il nostro studio dimostra che il cervello genera una serie di rappresentazioni che partono dal significato astratto di una frase e vengono progressivamente tradotte in azioni concrete, come il movimento delle dita sulla tastiera. Un “codice neurale dinamico”, uno speciale meccanismo neurale che concatena rappresentazioni successive mantenendo ciascuna di esse per lunghi periodi di tempo”.
Come ha dichiarato Meta stessa, “stiamo assistendo al momento esatto in cui i pensieri si trasformano in parole”.
Nonostante le premesse rivoluzionarie, il progetto presenta ancora molte limitazioni pratiche. La prima è correlata alle prestazioni: la decodifica delle prestazioni è ancora imperfetta. Ma anche pratiche.
Lo scanner deve essere collocato in una stanza appositamente schermata per bloccare il campo magnetico terrestre, che è un trilione di volte più forte rispetto ai segnali cerebrali. Inoltre, anche il più piccolo movimento della testa può disturbare il segnale ed è necessario rimanere fermi. Infine, mentre questa ricerca è stata condotta su volontari sani, come specifica Meta, è necessario un lavoro futuro per esplorare come potrebbe essere utile alle persone che soffrono di lesioni cerebrali.
Indubbiamente, la tecnologia che legge il pensiero di Meta è una finestra sul futuro della medicina neurologica e della comunicazione umana. Un approccio non invasivo che sta tracciando una strada più accessibile rispetto ai chip cerebrali che sta testando Neuralink.
Anche se il progetto non mira a sviluppare un prodotto commerciale nell’immediato, la storia dell’innovazione tecnologica ci ricorda che dispositivi giganti in fase iniziale, non restano tali per sempre: lo scanner che oggi occupa una stanza intera e richiede condizioni speciali potrebbe, un domani, diventare discreto come un auricolare o un cappello.
Nel cervello umano l’area deputata alla formazione delle parole e alla comprensione del linguaggio è separata da quella che gestisce i muscoli volontari, tra cui quelli della bocca. I ricercatori di Meta hanno sfruttato questa divisione funzionale per mettere a punto il loro progetto.
Hanno quindi chiesto a 169 volontari di sottoporsi a risonanza magnetica ed elettroencefalogramma mentre ascoltavano la lettura di audiolibri in inglese e in olandese. Il risultato sono state oltre 150 ore di registrazione che mostrano nel dettaglio l’attività cerebrale durante la comprensione di un testo. Queste immagini però sono caratterizzate da un rumore di fondo, che rende complesso isolare, all’interno di tutta l’attività del cervello che accompagna in ogni momento un individuo, i processi legati alla comprensione di ogni singola parola dell’audiolibro.
L’algoritmo al momento funziona solo sui testi degli audiolibri utilizzati per l’addestramento: mentre il volontario ascolta la narrazione in cuffia, è cioè capace di estrapolare il testo dall’attività cerebrale. Il prossimo passaggio è quello di estendere la capacità del sistema in modo che possa funzionare anche senza un dataset predefinito a supporto.
Questa tecnologia potrà aiutare migliaia di pazienti che, a seguito di un trauma, non sono più in grado di comunicare con l’esterno, ma solleva anche non pochi problemi di natura etica, perché di fatto permette di entrare nel cervello delle persone e di leggerne i pensieri.
Per “ripulire” il segnale cerebrale legato all’identificazione del testo, gli ingegneri di Meta hanno riadattato un algoritmo di IA sviluppato nel 2020 per estrarre una traccia nitida da un file audio registrato in un ambiente molto rumoroso.
Questo sistema, riadattato e applicato alle registrazioni dell’attività cerebrale dei volontari, ha permesso di isolare l’attività cerebrale legata alla comprensione di un testo. I ricercatori hanno potuto così creare un ampio dataset che mette in relazione la comprensione di singole parole, per esempio “gatto”, all’attività dei neuroni che formano nel cervello quella parola.
Il sistema a questo punto è in grado di leggere, attraverso una risonanza magnetica e un elettroencefalogramma, l’attività di creazione delle parole nel cervello, e di riprodurla all’esterno sotto forma di file testuale o audio.
C’è da dire preliminarmente che la gran parte dello sviluppo di questi sistemi è frutto della ricerca medica neuroscientifica, che già su altre applicazioni aveva agito concretamente in autonomia. La sinergia in questo caso con Meta ha certamente portato risorse, economiche e tecnologiche, utili allo sviluppo di un sistema che rientra nel più ampio spettro di strumenti che indagano “come agisce” la mente e il cervello dell’uomo in maniera non invasiva, a partire dalla MRI e dalla fMRI.
Questa applicazione, in particolare però, appare particolarmente delicata perché – ben oltre il celebre esperimento di Libet – entra a indagare non già quello che il cervello fa (come con al risonanza magnetica funzionale che rileva le aree attive) ma quello che la mente “ha intenzione di fare” senza che lo faccia.
Una sorta di “Minority report” applicato alle attività quotidiane.
E c’è molta differenza tra “il corpo schiaccia – effettivamente – un pulsante e vediamo la parte x della corteccia motoria in attività” dal “ma mente sta pensando di schiacciare un pulsante – senza farlo – e vediamo che si attiva come se lo stesse per fare”.
Più che leggere nel pensiero “effettivo” è come se si stessero leggendo le “intenzioni” allo stadio di ipotesi di azioni, per altro senza lasciare l’opportunità di ripensare, rivalutare e cambiare idea sull’azione da compiere.
Viene esclusa in altri termini – e qui la componente neuroscientifica conta non poco – l’azione di controllo e inibizione della corteccia prefrontale.
Da qui l’ampia cautela con la quale dobbiamo prendere questi risultati, che andrebbero anche solo divulgati con un rigido controllo bioetico.
Anche perché il confine tra ciò che come output della ricerca deve restare nei laboratori e nelle cliniche e quanto può essere trasferito al settore privato va chiarito con rigore e verifiche stringenti molto prima che il primo volontario entri “nella macchina”.
Una volta che il know-how neuroscientifico viene applicato ad uno strumento “meccanico-tecnologico” e una AI ha imparato a decodificare il segnale, nulla impedisce al soggetto privato – specie se dotato di fondi enormi – di proseguire da sé nello sviluppo di applicativi “fuori controllo”.
Ciò non pone solo un problema di privacy, ma di vera e propria ingerenza nel libero arbitrio, e apre a possibilità incredibili in termini di manipolazione della volontà dell’individuo.
Salvis Juribus – Rivista di informazione giuridica
Direttore responsabile Avv. Giacomo Romano
Listed in ROAD, con patrocinio UNESCO
Copyrights © 2015 - ISSN 2464-9775
Ufficio Redazione: redazione@salvisjuribus.it
Ufficio Risorse Umane: recruitment@salvisjuribus.it
Ufficio Commerciale: info@salvisjuribus.it
***
Metti una stella e seguici anche su Google News