skin

Gaming e intelligenza artificiale: l’importanza dell’etica

17 agosto 2024 - 09:32

La tecnologia applicata al gioco offre infinite possibilità ma è imperativo che resti al servizio dell'uomo e della sua evoluzione.

Foto di Igor Omilaev su Unsplash

Foto di Igor Omilaev su Unsplash

Nei miei precedenti articoli avevo già evidenziato l’importanza dei sistemi di intelligenza artificiale nell’evoluzione dell’industria videoludica, ma tali innovazioni tecnologiche possono, e probabilmente già lo sono, utilizzate per il mondo dei giochi d’azzardo, e in particolare per la creazione di esperienze sempre più coinvolgenti all’interno dell’offerta di gioco online. In particolare mi riferisco alla possibilità di personalizzare l’offerta di gioco, consentendo di costruire un’esperienza ad hoc ritagliata sull’utente e in grado di adattarsi in maniera dinamica alle aspettative di ogni giocatore.

L’IA consente infatti la creazione di esperienze di gioco personalizzate attraverso l’adozione di algoritmi che consentono di analizzare enormi quantità di dati relativi alle abitudini del consumatore, alle modalità di scommessa o interazione con il sito, ma anche alla sicurezza delle transazioni. La possibile portata dirompente di questa nuova tecnologia ha fatto riflettere anche sulla necessità di una correzione in chiave etica dei possibili risultati, ovvero sulla necessità che lo sviluppo sia conforme o conformato a determinati principi etici. 
Faccio ora alcune necessarie precisazione normative sull’importanza dell’etica anche sul piano generale, al di là quindi del settore del gaming, per poi capire perché il discorso rivesta una particolare importanza in questo settore.

Il legislatore comunitario ha specificato che la finalità dell’intervento normativo su questa tematica è quello di promuovere un’intelligenza artificiale antropocentrica, sicura, affidabile ed etica e garantire nel contempo un elevato livello di protezione della salute, della sicurezza e dei diritti fondamentali dell’uomo, ovvero assicurarne uno sviluppo che ne premi i notevoli benefici potenziali e delimiti/argini i possibili effetti negativi: l’IA, al pari di ogni altra innovazione tecnologica, deve essere al servizio dell’uomo e agevolarne il progresso e l’evoluzione. 
In particolare, sebbene come ricordato nel mio articolo precedente, il regolamento adotti un approccio basato sul rischio, ovvero secondo il quale maggiore è il rischio per i diritti fondamentali del sistema di IA considerato, maggiori sono gli obblighi ed i limiti a cui deve essere sottoposto, altrettanto importante è il generale sviluppo di questa nuova tecnologia in modo da accentuarne i benefici e ridurne i possibili rischi. Il principio basato sul rischio costituisce infatti la base per un insieme proporzionato e efficace di regole vincolanti, ma sin dai primi lavori di regolamentazione è stato sottolineata l’importanza di promuovere uno sviluppo di questa tecnologia conforme ai principi etici. 

In particolare le istituzioni comunitarie hanno recepito i lavori di un gruppo specializzato di studi istituito nell’ambito della stessa Commissione europea: l’High-Level Expert Group on AI che già nel 2019 aveva elaborato le linee guida per un’IA affidabile. 
Il regolamento richiama infatti i sette principi etici elaborati da questo organo, e che dovrebbero guidare lo sviluppo dei sistemi di IA: intervento e sorveglianza umani, robustezza tecnica e sicurezza, vita privata e governance dei dati, trasparenza, diversità, non discriminazione ed equità, benessere sociale e ambientale e responsabilità. 

Analizzando questi principi ci renderemo subito conto di come, almeno alcuni di essi, sono molto sentiti nell’ambito del gaming e soprattutto in quello online così tanto sensibile alla necessità di ottenere e mantenere la fiducia dell’utente per decretare il successo o l’insuccesso di un nuovo gioco, di un servizio, di un nuovo casinò fisico o online.

Per “intervento e sorveglianza umani” o “antropocentricentrismo” si intende che i sistemi di IA sono sviluppati e utilizzati come strumenti al servizio delle persone, nel rispetto della dignità umana e dell'autonomia personale e funzionano in modo da poter essere adeguatamente controllati e sorvegliati dagli esseri umani. In particolare l’intervento umano comporta che gli utenti siano in grado di adottare decisioni autonome e informate in merito ai sistemi di IA a un livello soddisfacente, e in particolare dovrebbero aiutare gli individui a compiere scelte migliori e più informate e coerenti con i loro obiettivi; invece la sorveglianza umana aiuta a garantire che il sistema non comprometta l’autonomia umana o provochi altri effetti negativi: la sorveglianza può avvenire mediante meccanismi di governance che consentano un approccio con intervento, sorveglianza o controllo umano, oppure che prevedano la possibilità di intervento umano in ogni ciclo decisionale del sistema. 

Il concetto di robustezza tecnica e di sicurezza è strettamente connesso al principio di prevenzione dei danni. Per garantire la robustezza tecnica è infatti necessario che i sistemi siano sviluppati con un approccio di prevenzione dei rischi ed in maniera tale che si comportino in maniera attendibile secondo le previsioni, riducendo al minimo i danni non intenzionali e imprevisti e prevenendo danni inaccettabili. Ciò comporta anche che i sistemi di IA, come tutti gli altri sistemi software, siano protetti contro le vulnerabilità che li espongono allo sfruttamento da parte degli avversari, ad esempio l’haking. 

L’importanza del rispetto della vita privata e della governance dei dati è tanto più rilevante, quanto sono sensibili i dati di cui si tratta, come lo è per le informazioni connesse al gaming. La risevatezza è strettamente connessa al principio di prevenzione dei danni: per prevenire danni alla riservatezza occorre un’adeguata governance che riguardi la qualità e integrità dei dati utilizzati, la loro pertinenza rispetto al settore in cui i sistemi di IA saranno distribuiti, i protocolli di accesso e la capacità di trattare i dati in modo da tutelare la riservatezza. 
I sistemi di IA devono garantire la riservatezza e la protezione dei dati durante l’intero ciclo di vita del sistema, comprese le informazioni fornite inizialmente all’utente e quelle che lo riguardano, nonché le informazioni sull’utente generate nel corso della sua interazione con il sistema: le registrazioni digitali del comportamento umano possono infatti permettere ai sistemi di IA di dedurre non solo le preferenze individuali, ma anche il loro orientamento sessuale, l’età, il genere, le opinioni religiose o politiche; quindi, affinché le persone abbiano fiducia nel processo di raccolta dei dati che le riguardano, occorre garantire che tali dati non siano utilizzati per una finalità non lecita o discriminatoria. 

La trasparenza è il principio fondamentale che si ricava dal Regolamento IA: esso comprende la tracciabilità,  la spiegabilità e la necessità di comunicazione. In particolare l’essere umano deve essere a conoscenza di interfacciarsi con un'IA, deve conoscere la destinazione dei dati da essa utilizzati, possibilmente documentata. 
Il principio di responsabilità o di accountability integra quelli precedenti e comprende la verificabilità dei sistemi, la riduzione al minimo degli effetti negativi e la relativa segnalazione, l’attuazione di necessari compromessi e la previsione di sistemi di ricorso in caso di effetti negativi ingiusti: la certezza della possibilità di ricorso in caso di esiti avversi è fondamentale per garantire la fiducia. 
Al di là del dettato normativo lo sviluppo etico dell’IA è conforme agli attuali principi di mercato e consente un vantaggio reputazione nei confronti dei consumatori verso il sistema di IA considerato, ma anche più in generale, nei confronti dei prodotti e servizi che utilizzano sistemi di IA etici ed affidabili. 

Il settore del Gaming è sicuramente molto sensibile all’esigenza di ottenere e preservare la fiducia del cliente, in modo da conquistarlo e mantenerlo, per questo la questione dell’eticità dei sistemi di IA deve essere adeguatamente considerata. 

Articoli correlati