AUTORI

Diego D'Alessandro
Equity Partner
Alice Allasia
Lead Consultant
Nilo Misuraca
Consultant
Gianmarco Govoni
Consultant

Perché l’etica può e deve guidare i processi di innovazione digitale 

Ascolta

Ma gli androidi sognano pecore elettriche? Si chiedeva Philip K. Dick nel 1968 nell’omonimo romanzo fantascientifico, anticipando di mezzo secolo i dilemmi del mondo contemporaneo

Nel 1987 fu poi il turno dello sceneggiatore e produttore televisivo statunitense Gene Roddenberry porsi la domanda sul ruolo delle emozioni nelle macchine: nella serie tv “Star Trek: The Next Generation” è l’amato androide Data a vivere questo grande desiderio di umanità, questa spinta nel conoscere e comprendere il complicato universo emozionale umano. 

Nel 2024, nel pieno dell’intelligenza artificiale e del crescente sviluppo delle modalità di interazione tra utente e macchina, queste idee che un tempo hanno tracciato percorsi nella fantascienza, oggi sono diventate a tutti gli effetti oggetto di studio scientifico. Ovviamente stiamo parlando sempre di macchine che, in quanto tali, sono e restano amorali e prive di emozioni. Oggi però la modalità di interazione tra individuo e tecnologia è cambiato, in quanto quest’ultima supera, in molti contesti, le capacità umane, è estremamente pervasiva e sta modificando radicalmente il modo in cui ci relazioniamo tra di noi e con l’ambiente che ci circonda.  

Questioni, quelle inerenti al rapporto uomo-macchina, che oggi assumono ancora più concretezza e rilevanza, soprattutto all’indomani della firma a Vilnius (Lituania) del primo trattato internazionale sull’intelligenza artificiale.   

L’etica digitale e il trattato sull’IA 

Tra le nuove declinazioni dell’etica moderna – nate nel contesto dell’evoluzione scientifica, tecnologica e industriale – significativo è il contributo dell’etica digitale, che, parafrasando le parole del filosofo Luciano Floridi, fondatore e direttore del Digital Ethics Centre dell’Università di Yale, consiste nella riflessione critica su come le tecnologie digitali influenzano la nostra vita, i nostri valori e i nostri diritti, e su come possiamo sviluppare un approccio etico alla loro progettazione, implementazione e uso. 

Si tratta dunque di un elemento coerente con ciò che si propone di perseguire la Convenzione quadro sull’intelligenza artificiale, il primo trattato internazionale sul tema, adottato dal Consiglio d’Europa per garantire un uso responsabile dell’IA, proteggendo diritti umani, democrazia e Stato di diritto

Basato sui principi chiave della dignità umana, della trasparenza, della supervisione e dell’accountability, il trattato definisce un quadro giuridico che copre l’intero ciclo di vita dei sistemi di IA, affrontandone rischi ma promuovendone anche un’innovazione sostenibile

Perché un’azienda dovrebbe interrogarsi su queste tematiche? 

L’impatto sociale delle nuove tecnologie è innegabile, trasversale ad ogni aspetto della nostra vita: relazioni personali, casa, lavoro. La coltivazione di rapporti interpersonali al netto delle distanze geografiche, la domotica nelle abitazioni e i sistemi innovativi negli uffici sono solo alcuni esempi. Per continuare a essere al centro di questa nascente Hyper Smart Society, l’essere umano deve saper guidare il cambiamento, e per poterlo guidare deve essere disposto a comprenderlo. Il pericolo più grande che spesso oggi ci porta a temere l’AI è forse proprio l’inconsapevolezza, che ci allontana da un futuro basato sulla comprensione per uno fondato sulla paura o sulla cieca fiducia nella tecnologia.  

Il cambio di paradigma coinvolge anche le aziende, che devono essere consapevoli delle opportunità ma anche dei rischi legati all’IA.  

Oggi, molte aziende soffrono un senso di disorientamento, rincorrendo la tecnologia invece di governarla. Molti operatori del mercato sono esposti al rischio di rimanere indietro rispetto alla concorrenza, e ciò li porta a una corsa cieca verso l’adozione delle ultime innovazioni in modo acritico. La strategia vincente invece non è più adottare una tecnologia prima degli altri, ma comprenderla per governarla in modo etico e responsabile. 

La comprensione implica il sapersi interrogare, e il rischio oggi è proprio di concentrarsi su soluzioni senza prima aver individuato le giuste domande da porsi. Esercitare il dubbio e definire una posizione rispetto ai problemi non deve essere visto come tempo perso, come un ostacolo all’innovazione, ma come prologo di un’innovazione responsabile e consapevole. In questo, le scienze umanistiche e la filosofia offrono un aiuto prezioso, fornendo riflessioni sempre attuali. 

L’etica, che non è mai assoluta, ma si evolve e cambia oggetto d’indagine esattamente come cambiano i nostri comportamenti e i nostri valori come società, aiuta a rispondere alle sfide del digitale, come sottolinea Luciano Floridi nella sua “Etica dell’Intelligenza Artificiale”. 

Danni reputazionali e responsabilità digitale 

Nella Convenzione quadro sull’intelligenza artificiale è contenuto anche l’obbligo per le aziende private e pubbliche di determinare le responsabilità e di rendere conto in caso di impatto negativo. Tra le altre cose, c’è l’impegno a fare in modo che i sistemi di IA rispettino l’uguaglianza, compresa quella di genere, e assicurino il divieto di discriminazione e la protezione della privacy.  

Riassumendo, le aziende sono e devono essere responsabili a tutti i livelli delle proprie scelte digitali. 

Molti casi di cronaca degli ultimi mesi ci insegnano che un uso non etico della tecnologia è in grado di provocare non solo danni economici ma anche reputazionali importanti, mettendo a rischio la fiducia dell’utente e la serietà dell’azienda. Anche in questo senso l’etica è strategia, capace di individuare le opportunità offerte dalle tecnologie e, allo stesso tempo, mettere in luce potenziali rischi anticipandone i danni.  

Formazione e spirito critico 

Ora che le attività considerate ripetitive – e non solo – sono sempre più delegate alle macchine, le aziende necessitano di un diverso approccio da parte delle proprie persone. È cruciale che la popolazione aziendale affronti in modo critico le sfide poste quotidianamente dalle nuove tecnologie.

In un contesto così complesso, diventa fondamentale per le aziende garantire che chi utilizza questi strumenti sia adeguatamente formato ed educato al loro corretto utilizzo. Investire in questa cura e attenzione è importante per assicurare un uso efficace e responsabile delle tecnologie, migliorando la produttività e riducendo i rischi associati a un’adozione inconsapevole.  

L’educazione – intesa come formazione e supporto per lo sviluppo di un atteggiamento critico e non passivo in merito a ciò che accade – destinata ai membri della società e orientata ad un utilizzo corretto della tecnologia permette di usare al meglio le soluzioni in questione. In questo processo, la filosofia è uno strumento fondamentale. Così facendo, si ottengono due risultati: è possibile evitare i danni che possono derivare dall’uso scorretto della tecnologia in questione e, contemporaneamente, si riesce ad avvicinare le persone – educandole nella maniera corretta – al progresso tecnologico senza che ne siano spaventate. 

L’obiettivo è continuare a garantire l’autonomia dell’individuo. In questo caso, l’etica può aiutare ad allenare la capacità di analisi critica, offrendo scenari e momenti di confronto. Solo in questo modo è possibile mantenere il controllo su ciò che la tecnologia produce e sul supporto che ci può offrire.  

L’awareness dell’etica digitale, per le aziende, è proprio qui: nella capacità di porsi delle domande e nell’approcciarsi in modo consapevole e responsabile alle nuove tecnologie. 

Guidando e non subendo l’innovazione. 

CONTENUTI CORRELATI

AUTORI

Gianmarco Govoni
Consultant
Nilo Misuraca
Consultant
Alice Allasia
Lead Consultant
Diego D'Alessandro
Equity Partner

Contenuti correlati

Articoli correlati