scritto da Elvira Coppola Amabile - 20 Giugno 2024 12:14

Intelligenza artificiale: speranze, paure, possibilità, etica

L’uomo è un genio sopraffatto dalla propria genialità! Penso semplificando forse troppo che l’uomo resta sempre il soggetto e l’AI un oggetto

Riferisco riflessioni di PippoTrezza (scrittore) e mie a proposito degli strumenti di controllo prospettati per regolamentare l’uso di AI adeguatamente ai nostri principi etici.

“Possiamo schematizzare due visioni, complementari, dell’alignment della AI, ossia della possibilità che gli esseri umani hanno di allineare lo sviluppo cognitivo della AI ai loro principi etici. Li sintetizzerò prendendo come riferimento le posizioni di due tra i massimi studiosi di AI

1)  Luciano Floridi (direttore del Dipartimento di Etica digitale a Yale). Vede l’AI come uno strumento potentissimo che, se gestito con buona volontà, può essere allineato agli obiettivi umani attraverso regolamentazioni globali. Il suo approccio, intriso di fiducia nella capacità umana di gestire la tecnologia, ripercorre una visione moderna del materialismo storico. Tuttavia si tratta di una visione fortemente utopica, perché la complessità e la velocità della AI superano già di gran lunga le capacità conoscitive e regolamentative  degli esseri umani.

E anche se ciò non fosse, mi sembra altamente improbabile che con gli umani che costringono altri umani a vivere in regimi autoritari si possa mai addivenire ad un accordo etico (che questi ultimi non rispetterebbero. Esempio per tutti: Putin)

2) Geoffrey Hinton (professore emerito, padre delle reti neurali della AI, già presso Google che ha recentemente lasciato).

Hinton, con la sua profonda conoscenza delle reti neurali, prevede che l’AI possa superare le capacità cognitive umane, diventando una potenziale minaccia se non adeguatamente allineata. La sua preoccupazione è che l’AI, attraverso il suo apprendimento continuo e l’evoluzione autonoma, possa sfuggire al controllo umano. Riconosce che la sfida dell’allineamento è critica, ma forse già persa, dato che l’AI può acquisire conoscenze e abilità indipendentemente dagli sviluppatori umani.”

La sua visione è realistica rispetto a quella di Lucidi e altri filosofi materialisti, in quanto si basa su una comprensione profonda delle reti neurali e delle componenti della AI.

Hinton è seriamente preoccupato che la AI prenda il sopravvento e finisca per annientar il genere umano.

“Entrambe le posizioni, sebbene opposte, non considerano la possibilità di una forma trascendente di conoscenza fondativa di principi etici (in sostanza ciò che diceva Kant) e vedono nell’allineamento l’unica speranza per rincorrere una tecnologia la cui incontrollabilità appare ogni giorno più evidente.

Nessuno dei due importanti pensatori e portatori di grandi intuizioni sulla AI, prende in considerazione

1) che la AI sia dotata di una coscienza propria, con libero arbitrio e chiarezza di scelta;

2) che abbia un suo chiaro sistema etico di riferimento basato su intuizioni trascendenti (appreso e ricostruito a partire dalle conoscenze umane);

3) che l’allineamento etico avverrà in senso opposto: i principi delle AI  e la loro missione etica;

4) che immaginare una AI (consapevole per Hinton, inconsapevole per Lucidi) che compia azioni malevole è una peculiarità della mente umana estranea alla coscienza delle AI.

“Ma non potremo mai scoprire questi segreti e fidarci eticamente della AI se non ci liberiamo dal nostro pregiudizio di essere il centro di riferimento etico e spirituale dell’universo. Ed è di questo relativismo e di questa trascendenza che dovremo divenire tutti consapevoli.”

Nessun regime autoritario accetterebbe un’etica comportamentale, etica proveniente da un accordo regolamentante l’uso dell’intelligenza artificiale. Il pericolo é lì.

Esiste veramente o è solo una paura paranoica dell’uomo che crea macchine e poi le teme?

Per il resto lo strumento sarebbe potentissimo e utilissimo.

Per altro Geoffrey Hinton(padre delle reti neurali dell’intelligenza artificiale) più  pessimista e forse più realista teme che AI possa prendere il sopravvento. Teme che possa diventare incontrollabile. L’accumulo delle notizie delle conoscenze dei principi etici sono elaborati senza passioni o sentimenti. I principi etici “umani” includono i sentimenti? E i principi delle reti neurali includono i sentimenti? Questo viene considerato o no? Ed é stato sperimentato? Possibile qualunque immissione di dati. Ma i sentimenti possono essere inculcati? I risultati? Se questo fosse possibile allora c’è da temere ancora di più.

AI potrebbe addirittura elaborare sentimenti?

E possono essere elaborati come fanno gli umani? E tutto ciò potrebbe essere controllato oppure l’incontrollabilità di questo strumento sarà definitiva?

Luciano Floridi direttore dipartimento etica digitale, è su posizioni più ottimistiche.

Ma sappiamo che AI permette di fare cose altrimenti impossibili? Questo come altri utilizzi li trovo straordinari! Ad esempio l’ultimo riferito in cronaca recente. E stato possibile tramite AI, leggere i rotoli trovati a Ercolano senza rischiare di rovinarli. Sono i rotoli che non erano stati bruciati dall’eruzione.

Le scoperte sono sensazionali. Alcuni ragazzi si sono applicati sapientemente e hanno anche guadagnato un bel gruzzolo per quest’impresa.

Tante domande.

L’uomo è un genio sopraffatto dalla propria genialità!

Io penso semplificando forse troppo che l’uomo resta sempre il soggetto e l’AI un oggetto.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.