Gli scarabocchi che vedete qui sopra sono lettere pensate: sono linee
tracciate da un algoritmo che interpreta gli schemi dei segnali elettrici del
cervello di una persona che immagina di scrivere delle lettere. Lo
immagina soltanto, perché è paralizzata.
È il risultato notevole di un’interfaccia computer-cervello (brain-computer interface o BCI) presentata su Nature a metà maggio scorso, che è in grado di decodificare 90 caratteri al minuto con il 94% di accuratezza: molto più veloce di qualunque interfaccia precedente e paragonabile alla velocità di scrittura di un messaggio su smartphone (circa 115 caratteri al minuto).
L’interfaccia è il frutto del lavoro di un gruppo coordinato da Frank Willett del Neural Prosthetics Translational Laboratory (NPTL) presso la Stanford University, e l’articolo che la descrive è intitolato “High-performance brain-to-text communication via handwriting” (Nature, 593:249–54, 2021).
L’approccio di questi ricercatori è consistito nell’abbandonare il modello classico “punta e clicca” (usato da loro in passato, ottenendo circa 40 caratteri al minuto). In questo modello, una persona deve usare il pensiero per muovere un cursore su uno schermo fino a posizionarlo sulla lettera desiderata oppure deve pensare in un modo apposito quando il cursore perennemente in movimento passa sopra la lettera in questione, in modo da selezionarla. Stavolta, invece, i ricercatori hanno chiesto alle persone di pensare ai movimenti che avrebbero fatto se avessero potuto scrivere una data lettera dell’alfabeto.
L’interfaccia fa parte di un test clinico a lungo termine denominato BrainGate2, in cui vengono impiantati dei sensori nella corteccia motoria dei cervelli di persone paralizzate. Uno dei partecipanti, identificato solo come T5, ha una lesione spinale che gli rende impossibile usare le mani (ma è in grado di parlare): nel corso di numerose sessioni di sperimentazione gli è stato chiesto di immaginare di tenere in mano una biro e di scrivere alcune centinaia di frasi che gli venivano mostrate su uno schermo.
L’attività neuronale captata durante queste sessioni dal sensore impiantato in T5 è stata usata per addestrare una rete neurale a identificare le lettere scritte dalla persona e a generare testo in tempo reale partendo dagli impulsi cerebrali prodotti dal volontario quando immaginava di scrivere frasi nuove.
Il sensore impiantato ha ancora alcune limitazioni: è ingombrante e cablato, e
ha problemi di instabilità posizionale che alterano i segnali che riceve. Ma i
ricercatori stanno già valutando versioni compatte, stabili e wireless,
e pensano già di captare i segnali neuronali del parlato e convertirli in
testo e voce, ridando la facoltà di parlare a chi l’ha persa.
Questo è quello che i ricercatori sono riusciti a fare per T5. Speriamo che scelgano bene il software per il T1000.
Nessun commento:
Posta un commento
Se vuoi commentare tramite Disqus (consigliato), vai alla versione per schermi grandi. I commenti immessi qui potrebbero non comparire su Disqus.