Intelligenza Artificiale etica: Google definisce i suoi standard

8 giugno 20186 commenti

Google si è recentemente impegnata nella definizione di una serie di principi che dovranno essere seguiti nell'ambito delle ricerche e applicazioni nel campo dell'Intelligenza Artificiale.

Del resto questa tecnologia viene oggi impiegata in diversi ambiti della nostra vita quotidiana: è l’IA che si occupa di calcolare il tasso di interesse relativo a un mutuo, oppure a processare enormi quantità di dati in ambito medico.

Viste le enormi potenzialità dell’Intelligenza Artificiale è sembrato doveroso fissare una serie di paletti per un suo utilizzo etico. Del resto ha fatto molto scalpore l’accordo tra Google e l’esercito USA (che non sarà rinnovato quando l’anno prossimo giungerà a scadenza), il cosiddetto Project Maven, nell’ambito del quale Google si era impegnata ad implementare il machine learning sui droni militari.

Ecco quindi i 7 principi cardine su cui Google ha deciso di basare la sua attività di ricerca e sviluppo nel campo dell’IA.

  1. Essere socialmente utile: Bisogna prendere in consideraione una vasta gamma di fattori sociali ed economici e procedere nella direzione in cui riteniamo che i complessivi probabili benefici superino i probabili rischi e svantaggi, mentre continuiamo a rispettare le norme legali, culturali e sociali dei paesi in cui operiamo.
  2. Evitare di creare o rafforzare pregiudizi ingiusti: Bisogna evitare danni ingiusti alle persone, in particolare quelli riconducibili a caratteristiche come la razza, l’etnia, il genere, la nazionalità, le disponibilità economiche, l’orientamento sessuale, l’abilità, l’orientamento politico o la fede religiosa.
  3. Essere costruito e testato per la sicurezza: Si devono applicare delle procedure di sicurezza per evitare risultati indesiderati che rischino di arrecare un danno.
  4. Essere responsabile verso le persone: Si deve dare la possibilità di fornire un feedback, di dare spiegazioni significative e ricorrere contro determinate decisioni.
  5. Integrare i principi di design della privacy: Bisogna far si che le persone siano informate e diano il proprio consenso (all’utilizzo dei propri dati), incoraggiare la realizzazione di architetture a tutela della privacy e provvedere ad offrire adeguata sicurezza e controllo sull’uso dei dati.
  6. Mantenere elevati standard di eccellenza scientifica: Si deve lavorare con diversi soggetti interessati per promuovere in quest’ambito una leadership riflessiva, delineando degli approcci scientificamente rigorosi e multidisciplinari. L’Intelligenza Artificiale deve essere condivisa in maniera responsabile, pubblicando materiale educativo, best practices e ricerche che rendano possibile sviluppare utili applicazioni dell’IA  da parte di più persone.
  7. Mettere l ‘IA a disposizione degli utenti che condividono questi principi: Bisogna limitare applicazioni potenzialmente dannose o offensive (I criteri utilizzati da Google per valutare questo aspetto sono scala, unicità, scopo principale e ruolo di Google stessa).

L’IA, invece, non sarà utilizzata con il fine di costruire armi o tecnologie il cui scopo sia ferire esseri umani o di realizzare tecnologie in grado di causare un danno (dopo una valutazione del rapporto rischi/benefici), che violino leggi internazionali e diritti umani o con l’obiettivo di raccogliere o utilizzare informazioni in violazione di norme condivise a livello internazionale.

 

 

Loading...