4 min per lettura
Principi etici nell'utilizzo dell'IA
le aziende devono dotarsi di principi guida per l’utilizzo etico delle nuove tecnologie.

L’intelligenza artificiale (IA) comporta una serie di rischi potenziali, quali meccanismi decisionali opachi, discriminazioni (o “bias”) basate sul genere o sulla posizione geografica, intrusioni nelle informazioni private o utilizzi per scopi criminali.
Per questo motivo, e per la responsabilità che ne consegue la disponibilità, è arrivato il momento che le miglori aziende, quelle che affiancano agli obiettivi di lucro nuovi obiettivi a lungo termine e di impatto positivo, si dotino di principi che possano guidare l’utilizzo etico delle nuove tecnologie.
Negli ultimi anni molte aziende si sono dotate di un Codice Etico e di condotta o Manifesti di Sostenibilità, è il momento di definire nuovi principi, che siano in grado di stabilire i confini (tecnici, etici e morali) che delimitino chiaramente il rischio ed il comportamento, sia quello ritenuto giusto che quello sbagliato.
L’intelligenza artificiale possiede un enorme potenziale e può supportare in modo efficace i processi decisionali aziendali ma..

Photo by Mark Fletcher-Brown on Unsplash
Un uso non presidiato (o distorto) della tecnologia espone le aziende ai rischi potenziali connessi.
Ad esempio un sistema AI potrebbe:
- Decidere di non finanziare un’iniziativa solo perché “storicamente” le iniziative in quella determinata regione del paese non hanno ottenuto il giusto rendimento. Ciò consoliderebbe il divario economico tra le zone.
- Decidere di non assumere (o premiare) una persona perché “storicamente” i talenti emersi in passato appartengono ad un determinato genere, oppure hanno studiato in una determinata università oppure appartengono ad una determinata fascia di età. Ciò consoliderebbe le disparità oppure diminuirebbero la diversità ed il suo valore intrinseco.
- Decidere di proporre un prodotto particolarmente vantaggioso solo ad alcune classi di clienti basandosi non sul merito del singolo ma sul “cluster” di appartenenza (genere, di età o geografico). Ciò discriminerebbe il singolo per motivi di appartenenza e non, come dovrebbe essere, per motivi di merito .
La disponibilità di un nuovo strumento espone ad un rischio di utilizzo distorto per trarne vantaggi.

Photo by Brad Starkey on Unsplash
Le aziende dovrebbero impegnarsi, indicare come intendono comportarsi e quali sono i confini etici che non intendono superare per nessun motivo.
Ora che dispongono di una tecnologia “teoricamente” pericolosa le aziende dovranno esporsi, con maturità, coraggio e trasparenza, e garantire un comportamento in linea con i propri valori e nuovi principi di azione.

Photo by Mehdi MeSSrro on Unsplash
Principi guida T-R-I-O: Trasparenza | Responsabilità | Imparzialità | Onestà
Trasparenza:
- Dichiarare quando un sistema (o una decisione) utilizza sistemi di IA
- Assicurati che il metodo decisionale sia comprensibile ad un essere umano

Photo by Bud Helisson on Unsplash
Responsabilità
- L’IA può supportare le decisioni ma quelle importanti saranno prese sempre da umani
- La decisione umana può sempre “sostituire” una decisione presa da un sistema di IA

Photo by Ben Sweet on Unsplash
Imparzialità:
- I sistemi valutano i comportamenti in specifiche situazioni ma non le appartenenze
- Assicurarsi dell’assenza di discriminazioni (o “bias”) nei modelli decisionali

Photo by Clay Banks on Unsplash
Onestà
- Lo sviluppo e l’utilizzo sarà sempre in linea con le regole e le leggi esistenti
- Non utilizzare l’IA per manipolare segretamente le persone
- Rispetta sempre la privacy

Photo by Brett Jordan on Unsplash
Perchè è importante per le aziende di stabilire ora i propri principi etici nell’utilizzo dell’Intelligenza Artificiale?

Photo by Maxime Horlaville on Unsplash
L’adozione di un codice etico di IA non sarebbe un semplice esercizio di stile o operazione di marketing, incrementerebbe in modo efficace l’affidabilità e la reputazione dell’organizzazione nei confronti dei propri Clienti e Stakeholders.

Photo by Mohammad Mardani on Unsplash
Allo stesso tempo si attuerebbero nuovi presidi su categorie di rischi esistenti e sarebbe un esempio di auto-regolamentazione delle corporate e del mercato nei confronti di un argomento ed una materia ancora non completamente regolamentata stimolando tutti a contribuire in modo attivo ad un approccio, libero, sicuro e condiviso dei limiti e delle potenzialità delle tecnologie esistenti e future.
Commenti