Del resto questa tecnologia viene oggi impiegata in diversi ambiti della nostra vita quotidiana: è l’IA che si occupa di calcolare il tasso di interesse relativo a un mutuo, oppure a processare enormi quantità di dati in ambito medico.
Viste le enormi potenzialità dell’Intelligenza Artificiale è sembrato doveroso fissare una serie di paletti per un suo utilizzo etico. Del resto ha fatto molto scalpore l’accordo tra Google e l’esercito USA (che non sarà rinnovato quando l’anno prossimo giungerà a scadenza), il cosiddetto Project Maven, nell’ambito del quale Google si era impegnata ad implementare il machine learning sui droni militari.
Ecco quindi i 7 principi cardine su cui Google ha deciso di basare la sua attività di ricerca e sviluppo nel campo dell’IA.
- Essere socialmente utile: Bisogna prendere in consideraione una vasta gamma di fattori sociali ed economici e procedere nella direzione in cui riteniamo che i complessivi probabili benefici superino i probabili rischi e svantaggi, mentre continuiamo a rispettare le norme legali, culturali e sociali dei paesi in cui operiamo.
- Evitare di creare o rafforzare pregiudizi ingiusti: Bisogna evitare danni ingiusti alle persone, in particolare quelli riconducibili a caratteristiche come la razza, l’etnia, il genere, la nazionalità, le disponibilità economiche, l’orientamento sessuale, l’abilità, l’orientamento politico o la fede religiosa.
- Essere costruito e testato per la sicurezza: Si devono applicare delle procedure di sicurezza per evitare risultati indesiderati che rischino di arrecare un danno.
- Essere responsabile verso le persone: Si deve dare la possibilità di fornire un feedback, di dare spiegazioni significative e ricorrere contro determinate decisioni.
- Integrare i principi di design della privacy: Bisogna far si che le persone siano informate e diano il proprio consenso (all’utilizzo dei propri dati), incoraggiare la realizzazione di architetture a tutela della privacy e provvedere ad offrire adeguata sicurezza e controllo sull’uso dei dati.
- Mantenere elevati standard di eccellenza scientifica: Si deve lavorare con diversi soggetti interessati per promuovere in quest’ambito una leadership riflessiva, delineando degli approcci scientificamente rigorosi e multidisciplinari. L’Intelligenza Artificiale deve essere condivisa in maniera responsabile, pubblicando materiale educativo, best practices e ricerche che rendano possibile sviluppare utili applicazioni dell’IA da parte di più persone.
- Mettere l ‘IA a disposizione degli utenti che condividono questi principi: Bisogna limitare applicazioni potenzialmente dannose o offensive (I criteri utilizzati da Google per valutare questo aspetto sono scala, unicità, scopo principale e ruolo di Google stessa).
L’IA, invece, non sarà utilizzata con il fine di costruire armi o tecnologie il cui scopo sia ferire esseri umani o di realizzare tecnologie in grado di causare un danno (dopo una valutazione del rapporto rischi/benefici), che violino leggi internazionali e diritti umani o con l’obiettivo di raccogliere o utilizzare informazioni in violazione di norme condivise a livello internazionale.