Intelligenza artificiale

 

Sfide etiche e sociali da una prospettiva orientata ai diritti dei più giovani

L’Intelligenza Artificiale (IA) sta permeando e influenzando le nostre vite. Dai telefonini dotati di sistemi di riconoscimento facciale, alle automobili semi-automatiche, ai dispositivi che rispondono ai comandi vocali, fino ai cd “smart toys” (peluche, bambole, robot, in grado di interagire con le persone e con l’ambiente circostante, registrare suoni, scattare foto, registrare video e collegarsi con Internet), siamo sempre più circondati da dispositivi con aumentate capacità di calcolo e dotati di sensori che interagiscono in materia sofisticata con il mondo che li circonda.

Ma che cos’è l’Intelligenza Artificiale? Secondo gli esperti, la definizione di IA riguarda l’insieme di studi e tecniche che tendono alla realizzazione di macchine in grado di risolvere problemi e di riprodurre attività proprie dell’intelligenza umana. Per Stuart J. Russel e Peter Norvig, l’Intelligenza Artificiale è “lo studio e la progettazione di sistemi intelligenti, dove per sistema intelligente intendiamo un sistema che percepisce l’ambiente e agisce per massimizzare le proprie possibilità di successo” di intenti e missioni (Russel e Norvig, 2009). Nel nostro specifico, all’interno di questo seminario, siamo interessati/e ad approfondire quel settore dell’IA che si chiama Machine Learning e che riguarda l’IA applicata ai sistemi di apprendimento delle macchine autonome e dei robot. L’aspetto dell’apprendimento nelle macchine ci pone infatti numerosi problemi etici, politici e legali. Quali sono i limiti a cui queste nuove macchine intelligenti potranno arrivare? Quanta “liberta di decisione” lasceremo loro? È giusto spingersi sempre oltre senza curarsi delle conseguenze etiche dell’innovazione? Vi sono poi altri aspetti sociali nell’impiego dell’IA che dovremmo considerare. Per esempio, la realizzazione di profili di uomini e donne. Oltre alle evidenti questioni di privacy tutto questo solleva da tempo anche nodi rilevanti legati alla diffusione della discriminazione sociale. Assumere un/una lavoratore/lavoratrice, valutarne le capacità, determinarne l’affidabilità, saranno decisioni legate sempre più a macchine e modelli matematici che restituiranno punteggi e predizioni, tradotti in giudizi capaci di cambiare la vita delle persone. Studi recenti hanno infatti dimostrato che gli algoritmi possono essere affetti da bias di diversa natura (di genere, etnici, di classe), proprio perché progettati e alimentati da esseri umani e dunque sottoposti al rischio di attuare comportamenti discriminatori e produrre decisioni più o meno vantaggiose per alcune categorie di popolazione (ad esempio se nei miei dati sarà presente una forma di discriminazione di genere, l’algoritmo che utilizzerò per filtrare i cv dei candidati a un posto di lavoro esibirà quel pregiudizio nel suo comportamento e una giovane che resta disoccupata per una cattiva decisione di un algoritmo farà ancora più fatica a trovare lavoro).

Questa dimensione autonoma della macchina rappresenta dunque la relativa novità della questione tecnologica e fa sorgere numerose domande: cosa possiamo affidare alla macchina? Come fidarsi di sistemi spesso opachi che non permettono di avere spiegazioni su come i dati vengono elaborati, vere e proprie black box che non permettono di capire e non offrono spiegazioni dotate di senso? Cosa accade se la macchina fa una scelta sbagliata? Il tema etico si condensa qui proprio su questa non prevedibilità a priori delle scelte della macchina e su come e in che misura saremo disposti a tollerare gli eventuali errori e previsioni della macchina. Ma come si fa ad inserire in un sistema di IA valori e principi etici? E ancora come valutare questi modelli e le previsioni che da questi stessi derivano? Possiamo accettare queste previsioni acriticamente in un processo decisionale? E a chi si attribuirà l’eventuale responsabilità giuridica di decisioni prese sulla base di algoritmi che processano dati viziati?

Affinché i/le giovani siano pronti a queste sfide occorre che inizino a operare su e con macchine autonome, i robot, fin da piccoli. Se organizzati con attenzione e ispirati all’uso responsabile di queste nuove tecnologie didattiche, i corsi di robotica educativa possono diventare un importante sostegno all’apprendimento delle materie dette, in inglese, STEM (Scienza, Tecnologia, Ingegneria e Matematica) e possono promuovere negli studenti e studentesse diverse competenze, tra cui il pensiero logico, il lavoro di gruppo, la capacità di trovare soluzione originali a problemi, e così via. Inoltre, la robotica educativa può essere un notevole aiuto per la didattica dell’inclusione.

(Fonte: generazioni Connesse)

https://www.generazioniconnesse.it/site/it/2018/12/05/intelligenza-artificiale-sfide-etiche-e-sociali-da-una-prospettiva-orientata-ai-diritti-dei-piu-giovani/?rit=news-info