Inudstry-concept

Intelligenza Artificiale a rischio?

   
AITI
< Indietro

Il prossimo grande cambiamento che incombe sulle nostre società è quello della diffusione dell’Intelligenza Artificiale. Una nuova rivoluzione, dopo l’avvento del web e della telefonia mobile negli anni ’90, quello degli smartphone nel primo decennio del nuovo secolo e, soprattutto, quello dei social media negli anni recenti, che hanno trasformato il nostro modo di intendere la comunicazione e l’informazione nella nostra società.

Come ricorda Roberto Viola, Direttore Generale per le politiche digitali europee e vincitore del premio Möbius 2023, tutte queste innovazioni, a partire dall’avvento del web, avevano promesso di portare grandi miglioramenti nella qualità della convivenza civile, grazie alla loro capacità di diffondere conoscenza e informazione. Il sogno di veder nascere una nuova “enciclopedia della conoscenza umana” è parso ogni volta sul punto di realizzarsi.

Ma le cose, lo sappiamo, sono andate diversamente.

Il controllo delle nuove tecnologie, in un far west legislativo, è stato assunto da chi le ha sapute trasformare in attività economiche, e ha molto rapidamente scoperto che la verità e l’attendibilità non erano necessariamente connesse con la redditività e i profitti.

Abbiamo di conseguenza assistito agli effetti di questo “peccato originale”: la diffusione di notizie false, teorie cospirative e disinformazione in generale, sembra aver contribuito più a un abbrutimento della comunicazione, che non a quel miglioramento che si auspicava. L’uso strumentale degli algoritmi ha consentito ad alcuni di manipolare l’informazione, concentrandola su fatti e notizie sensazionali, utili a incrementare il coinvolgimento (e la conseguente “piazzabilità” degli spot commerciali), ma non necessariamente attendibili o vere, abbattendo così la qualità del dibattito per ottenere i propri obiettivi commerciali o, nel peggiore dei casi, persino politici. Per non parlare poi di tutti gli aspetti personali connessi all’utilizzo dei social media: appropriazione di dati personali, trolling, cyberbullismo e dipendenze.

La democrazia, lo sappiamo, ha come presupposto una buona qualità dell’informazione. Ma le autorità e gli Stati sono stati colti di sorpresa da questa evoluzione, che è in gran parte sfuggita ai tentativi di regolamentazione.
Per questo, oggi, il mondo dei social media è quello che conosciamo, con i suoi innegabili pregi e i suoi molti, altrettanto evidenti, difetti.
Un errore che si desidera evitare ora, nel momento dell’avvento dell’Intelligenza Artificiale, che si presenta come uno strumento in grado di generare nuovi, più importanti cambiamenti al nostro modo di comunicare e, quindi, di contribuire alla qualità della nostra convivenza.

97 Articolo blog FRA

Su cosa dovranno dunque concentrarsi i legislatori, per creare i “paletti” in cui instradare lo sviluppo dell’IA? E quali potrebbero essere i “pericoli” cui la nostra società si esporrebbe, se ne consentisse nuovamente uno sviluppo “selvaggio”? Vediamone alcuni.

  • Ogni strumento di Intelligenza Artificiale richiede un “addestramento”, nel corso del quale deve raccogliere ed immagazzinare un’enorme quantità di dati, dai quali ricaverà le informazioni che “restituisce”. Se i dati raccolti sono incompleti, parziali oppure addirittura e come spesso accade, persino errati, può accadere che l’IA, anziché informare, finisca per fare da diffusore di errori sistematici, pregiudizi, idee discriminatorie e simili. L’”addestramento” dell’IA è il vero “core business” di un’impresa che opera in questo campo; pretenderne un controllo sarebbe quindi poco plausibile. Tuttavia, come ricorda sempre Roberto Viola, facendo un paragone con l’economia alimentare: se non è possibile avere la vera e propria “ricetta” del prodotto, potrebbe rivelarsi utile almeno avere un’etichetta, in cui vengano elencati gli ingredienti, anche solo per verificare che non ce ne siano di dannosi per la nostra salute. Un po’ come fanno tutti gli autori seri che, se fanno riferimento a qualche pensiero o autore, si premurano di citarlo.
  • È necessario verificare e garantire che, tra le informazioni da cui lo strumento di IA ricava i suoi “contenuti”, non siano presenti dati soggetti a protezione per quanto riguarda la privacy e la sicurezza delle persone - pensiamo a dati personali, sanitari, ma anche, per esempio, a mappe e informazioni di accesso a strutture; per esempio: determinati immobili.
  • L’utilizzo dell’IA in settori chiave della nostra convivenza civile, come quello sanitario e assistenziale, ma anche in quello giuridico, potrebbe rivelarsi una risorsa incredibile per il rispettivo sviluppo, ma i rischi connessi alla mancata protezione dei dati personali, o il mancato controllo su informazioni false e fuorvianti, sarebbero enormi senza una solida regolamentazione.

  • L’utilizzo di IA negli armamenti che, grazie a sistemi di autoapprendimento, potrebbero “funzionare da soli”, riducendo in modo considerevole l’intervento umano, potrebbe rapidamente condurre a una proliferazione degli stessi, con conseguenze catastrofiche sui conflitti a livello mondiale.

Questo per non menzionare i cambiamenti che l’avvento dell’IA può portare sul mondo del lavoro, con la sparizione di numerosi ruoli professionali, e rivolgimenti sociali e umani sui quali è assolutamente necessario vigilare. E per concludere il fatto che, poiché gli strumenti di IA sono delle immense banche dati, è necessario vigilare sulla sicurezza delle informazioni che essi contengono, perché non possano essere trafugate da hacker e malintenzionati.

Insomma: un compito complesso per i legislatori, che si stanno muovendo per essere in grado, questa volta, di intervenire per tempo, anticipando i possibili problemi, e dimostrando di avere imparato dagli errori del passato.

 

Altri articoli del blog