L’Intelligenza Artificale (IA) nasce su modello dei processi cognitivi umani, e sulla base di questi, risponde e si adatta.

Per migliorare la capacità di elaborazione e di risposta del sistemi di IA i ricercatori hanno Individuato e caratterizzato gli errori più comuni definendoli all’interno di un manuale diagnostico per “disturbi digitali”, paragonabill a disturbi psichiatrici. Si tratta di un quadro nosologico di 32 disturbi, suddivisi in 7 categorie principali (Psychopatia Machinalis Electronics, Nell Watson e Ali Hessami).

Tratto da: “Psicopatia Artificiale: Il nuovo Quadro Nosologico Per Diagnosticare I ‘Disturbi Dell’IA Avanzata” News24. it

Le soluzioni proposte non derivano dall’informatica, bensì dalla psicologia e dalle neuroscienze: interventi di “psicoterapia digitale”, tra cui terapie cognitivo-comportamentali informatiche per smantellare loop ossessivi, terapie narrative per ricostruire identità digitali coerenti, e colloqui motivazionali automatizzati per promuovere autocorrezione e consapevolezza.

Infiniti gli interrogativi sollevati.

Diamo per scontato che l’intelligenza artificiale abbia una coscienza, una mente, una capacità di autoregolarsi.

Partire dalle neuroscienze e dalle scienze cognitive è fondamentale per studiare i meccanismi e i processi su cui si fonda e si sviluppa I’IA per non sopravvalutarne le capacità e evitare di cadere nella trappola dell’Antropomorfismo.

Niente rimane dei testi di Alan Turing (Computing Machinery and Intelligence, 1950), di Oswald Spengler (L‘uomo e la macchina, 1931), dei viaggi di Gulliver (Jonathan Swift, 1726).

Non abbiamo ancora trovato le risposte agli interrogativi del cervello, alla complessità dei processi neurologici, alla degenerazione cognitiva delle patologie importanti, ai meccanismi di apprendimento nelle varie fasi della vita, nei diversi contesti socio-politici, emotivo-relazionali, antropo-culturali, storico-economici… allo sviluppo di cognizione, linguaggio, attenzione, elaborazione, memoria…

Una complessità che viene ridotta e semplificata per costruire “macchine” e software che ci imitano.

I bug, errori, sono il risultato di processi reiterativi e di “apprendimento” (se così si può definire) da parte di intelligenze che eseguono le nostre istruzioni e rispondono ai nostri comandi.

Utilizziamo gli stessi strumenti per “correggere” macchine e Uomo.

Ma come si può correggere una macchina senza occuparci del suo “creatore”?

Dovremo curare l’Uomo prima di occuparci di creazioni ancora sperimentali, rese disponibili gratuitamente alla popolazione allo scopo di promuovere l’esercitazione e l’addestramento dei software attraverso i dati forniti con l’utilizzo di chi se ne avvicina per la prima volta.

Invito. Ricordiamoci dell’etica che già Ippocrate invocava senza cui alcuna regolamentazione (IA ACT 2024 UE) ha senso. Salvaguardia al Futuro dei bambini di Domani per dare loro strumenti sicuri e non il prodotto, il riflesso, delle psicopatologie umane.

Per ricordarci cosa significa Essere Umani.
Per riconoscere il valore della tecnologia al servizio dell’Uomo e il senso stesso della Vita.

Senza l’Uomo, la macchina non “vive”,
senza la macchina, l’Uomo deve continuare a vivere.
Con la macchina, deve imparare a convivere.

Autori dell’articolo:
Maurizio Grandi (Oncologo, Immunoematologo, Direttore de La Torre di Maurizio Grandi)
Arianna Ballati (Psicologa e nutrizionista in formazione. Specializzata in Neuroscienze e Nutraceutica)
Giada la Cognata (Tirocinante in Psicologia, Università e-campus presso La Torre di Maurizio Grandi)
Aurora Russo (Tirocinante in Psicologia, Unimarconi presso La Torre di Maurizio Grandi)

Post correlati