|

Fermare l’accelerazione dell’IA non è attualmente possibile, ci rimane la possibilità di orientare e regolare il suo cammino. Il pericolo sociopolitico più serio risiede nel fatto che la potenza e gli sviluppi dell’IA sono in Occidente nelle mani di pochissimi gruppi privati dotati di un potere straordinario. Da qui la domanda: può una decente democrazia convivere con una disparità di poteri come quello che si preannuncia, e che di fatto esiste già? La recente vicenda di OpenAI sembra si sia conclusa con la vittoria del desiderio di potere e guadagno sugli intenti originari di tenere conto dei dilemmi etici intrinseci all’IA e di tenerla come sorgente aperta

L’assunto che l’IA e l’intelligenza umana differiscono senza possibilità di identificazione non deve indurre al quietismo. Rischi e opportunità si aprono quasi contemporaneamente quando si cerca di restaurare e di potenziare l’essere umano, sia curando malattie sia dotandolo di maggiori capacità. In questo campo possono accadere eventi buoni o cattivi.

Consideriamo il cambiamento iperveloce del tessuto esistenziale e le difficoltà di molti di reggerne il ritmo, con le conseguenti fratture sociali in molti campi. Senza un’idea adeguata della persona, dei suoi diritti e doveri, della sua dignità, la volontà di potenza della tecnica – che in realtà è volontà di potenza dei singoli e dei grandi gruppi e holdings che operano poderosamente su scala mondiale, spesso in un grave vuoto normativo – è capace di generare violenti squilibri. Finora scarsa è stata la capacità dell’autorità pubblica di regolamentare efficacemente i grandi produttori di IA che, costituiti da gruppi privati egemoni a livello mondiale, mostrano un’alta riluttanza a sottoporsi a controlli e normative.

Un esempio del cattivo impiego dei media e dell’informatica balza agli occhi, se si riflette sull’odio che circola sulla rete. Esso, intensificando il ricorso al mezzo, rende economicamente molto più di altri business, senza che si calcolino i danni inflitti ai minorenni e ai bambini che crescono in tale clima. Una volta di più si mostra vero che i rischi per l’umanità non vengono da errori delle tecnologie, ma dal loro uso malsano. Ogni tecnica è aperta sui contrari, sul suo uso buono o cattivo, e ciò non dipende dalle tecnologie ma dall’uomo che le progetta e le impiega.

L’energia atomica illumina le città ma può essere impiegata per distruggerle. Il chip che viene installato nel cervello non solo consente di interpretare i segnali elettrici di coloro che non possono comunicare con l’esterno, fornendo un aiuto; ma consente parimenti di inviare segnali esterni al cervello, con il rischio di manipolazione e di espropriazione del soggetto. Non si dovrebbe mai dimenticare l’intrinseca ambivalenza della tecnica. Si pensi anche alla responsabilità morale delle aziende che diffondono notizie false, magari per incrementare i loro profitti o per influenzare negativamente l’opinione pubblica, e l’opportunità che siano sanzionate.

Siamo perciò rinviati alla difficile questione sui media e gli imperi digitali. La grande capacità di comunicazione ad alta velocità dei media e le agevolazioni che se ne traggono non devono nascondere agli occhi di tanti che dietro i media più diffusi globalmente vi sono capitali immensi e potentati economici che hanno i loro scopi, e che questi sono rivolti al massimo profitto e alla omogeneizzazione del pensiero, la ‘pensée unique’ appunto.

Avanziamo una domanda: a chi spetta l’ultima parola sul possesso dell’IA? La soluzione che si profila in Occidente è un gigantesco oligopolio dell’IA, in mano a pochissime aziende con capitali altrettanto giganteschi. Ecco una grande questione etico-politica in democrazia, che significa sovraccarico informativo e algoritmi preposti a selezionare le informazioni da far circolare. Nasce un nuovo Tecnofeudalesimo, come lo chiama Yanis Varoufakis (La nave di Teseo, 2023), capace di controllare e modificare i comportamenti delle persone, infeudandole a pratiche che consentono ai proprietari profitti enormi.

I Cloud Empires, ossia le grandi piattaforme che possono per alcuni aspetti assomigliare agli Stati, se ne differenziano però profondamente perché non debbono rendere conto del loro operato ai cittadini: non vi è o non sussiste una democrazia digitale. Non vi sono al momento capacità adeguate di controllo delle grandi piattaforme multinazionali, specialmente in Occidente. In Cina le imprese di IA sono soggette al controllo pervasivo del Partito unico; negli Usa dove vige la libertà di mercato, il loro potere risulta oggi soverchiante e poco soggetto a controlli e regolazione.

Un bisogno forte che avanza starebbe in Carte costituzionali digitali dei diritti e doveri fondamentali sia delle piattaforme sia degli utenti. Ci dovrebbero essere regole scritte e delle sedi capaci di sanzionare chi le viola. Considerata la globalizzazione dei media e dei loro prodotti informativi, sarebbe necessaria una regolazione universale che tocchi tutti i Paesi con normative conformi: una questione al momento quasi insolubile per l’accentuato disordine globale.

Qualcosa però si muove in sede ONU: il Segretario Generale A. Guterres ha creato recentemente un Advisory Body dell’Onu sull’IA, per favorire la creazione in sede ONU di un’agenzia deputata a monitorare giorno per giorno, sorvegliare e regolamentare la realizzazione e applicazione dei sistemi di IA, avendo scopo e ampiezza mondiali. Anche il Messaggio di papa Francesco su pace e IA (1 gennaio 2024) invita la Comunità delle nazioni “a lavorare unita al fine di adottare un trattato internazionale vincolante, che regoli lo sviluppo e l’uso dell’intelligenza artificiale nelle sue molteplici forme”, mirante a prevenire le cattive pratiche e a incoraggiare le buone pratiche, tra cui l’auspicio che l’IA “non accresca le troppe disuguaglianze e ingiustizie già presenti nel mondo”.

Si dovrebbe creare un’agenzia mondiale di regolazione e normazione per rendere compatibili le varie regolamentazioni nazionali ed estenderne il valore condiviso su scala mondiale. Una tale agenzia, posta accanto alla FAO e all’OMS, costituirebbe un primo nucleo di una futura (e lontana) autorità politica mondiale, nonostante la loro strutturale debolezza in quanto sono organismi messi in opera da Stati sovrani.

Le norme etico-giuridiche sull’IA per limitarne gli esiti negativi, tra cui la informazione polarizzata e nei casi peggiori scientemente falsificata, dovrebbero estendersi a un altro grande rischio: la creazione di programmi e messaggi digitali che in modo subliminale spingano verso l’uso compulsivo ed esteso di varie piattaforme. E infine la domanda centrale, che non può restare in sospeso a lungo: se l’IA provoca danni, chi ne risponde? Il progettista, il venditore, l’utente? Le grandi piattaforme e i loro proprietari devono riconoscere e accettare quello che finora hanno tenacemente negato, ossia la responsabilità sui contenuti che trasmettono, che influiscono in misura crescente su bambini e adolescenti favorendo l’insorgere di sintomi di autolesionismo, di depressione, di perdita di autostima, e inclinazione verso la violenza e l’odio sociale. Accurato esame richiedono i sistemi di IA in ambiti ad alto rischio quali i settori della salute, della sicurezza e dei trasporti.

Fermare l’accelerazione dell’IA non è attualmente possibile, ci rimane la possibilità di orientare e regolare il suo cammino. Il pericolo sociopolitico più serio risiede nel fatto che la potenza e gli sviluppi dell’IA sono in Occidente nelle mani di pochissimi gruppi privati dotati di un potere straordinario. Da qui la domanda: può una decente democrazia convivere con una disparità di poteri come quello che si preannuncia, e che di fatto esiste già? La recente vicenda di OpenAI sembra si sia conclusa con la vittoria del desiderio di potere e guadagno sugli intenti originari di tenere conto dei dilemmi etici intrinseci all’IA e di tenerla come sorgente ‘aperta’.

Tags:
Ti è piaciuto questo articolo? Condividilo!
PIPPO

FACEBOOK

© 2008 - 2024 | Bene Comune - Logo | Powered by MEDIAERA

Log in with your credentials

Forgot your details?