“L'AI Act è stato proposto e pubblicato nell'aprile 2021 ed è stata la prima regolamentazione al mondo sull'uso dei sistemi di intelligenza artificiale. Questo vuol dire che in Europa siamo stati molto innovativi su questa materia molto complessa da regolamentare anche per la velocità di sviluppo, considerando che nel 2021 non c'era neanche il Gpt.” In questo modo Manuela Girardi, founder di Pop Ai e chairman of the AI, Data and robotics Association Adra, introduce il suo intervento al webinar “AI Act e gioco responsabile: regolamentazione e innovazione per la tutela dei giocatori”, organizzato dalla Fondazione Fair oggi, 19 novembre, nell'ambito dell’European safer gambling week 2024.
“L’iter legislativo - prosegue Manuela Girardi – è stato abbastanza lungo e complesso per la complessità della materia e si è arrivati a un'entrata in vigore definitiva di questa regolamentazione solo il 2 agosto di quest'anno. Norme basate sull'approccio dei rischi, un po' come era la regolamentazione sul Gdpr, sulla privacy. In sintesi divide tutti i sistemi di intelligenza artificiale in base al rischio con cui possono violare i diritti fondamentali dei cittadini e anche le libertà fondamentali.”
Il presidente di Adra aggiunge che “Ci sono una serie di requisiti che andranno seguiti in base alla proporzionalità del rischio che può essere minimo, medio ed elevato. Se il rischio è considerato inaccettabile, allora questi sistemi verranno vietati in Europa. Se poi, si dovessero riscontrare una serie di sistemi di intelligenza artificiale che ad esempio possono essere utilizzati per manipolare il comportamento delle persone, spesso vulnerabili, già da febbraio del prossimo anno scatterà il divieto”.
Per quanto riguarda invece il gioco responsabile "i sistemi di intelligenza artificiale possono essere utilizzati per analizzare il comportamento dei player, prevenire delle situazioni problematiche. Per questi sistemi sarà necessaria una valutazione di conformità e una certificazione prima che vengano immessi sul mercato europeo, un insieme di regole e requisiti che le aziende sviluppatrici di sistemi di intelligenza artificiale considerate ad alto rischio devono seguire. Si tratta di requisiti abbastanza stringenti dal momento che si dice che l'Ai Act può avere un impatto sullo sviluppo dell'innovazione.”
“La Commissione europea - prosegue Girardi - prima di approvare in forma definitiva l'AI Act, aveva mandato alle organizzazioni degli standard europei per definire questa valutazione di conformità, dei requisiti tra cui la trasparenza, l'accuratezza, la robustezza, il rispetto dell'autonomia dell'uomo eccetera. Questi standard sono in via di definizione e verranno approvati più o meno verso la fine del 2025 e conferiranno agli operatori una sorta di presunzione di conformità agli obblighi previsti per questi sistemi considerati ad alto rischio. Seguendo gli standard una volta approvati un sistema sarà certificato per poter essere messo sul mercato ed essere considerato sicuro. Quindi, anche se la legge è stata approvata, siamo ancora in una fase di lavoro per la definizione finale degli standard, per far sì che questi sistemi, anche quelli utilizzati nel gioco responsabile, siano chiaramente conformi, sicuri, affidabili secondo la visione europea”.
Il Chairman di Adra torna nella parte finale del suo intervento sul tema del gioco responsabile evidenziando tre aspetti su cui può intervenire l’intelligenza artificiale: “In primis si può indentificare in modo precoce un comportamento di gioco problematico; grazie all’analisi dei dati l’Ai può trovare segnali precoci e si può monitorare il comportamento dei giocatori in tempo reale come ad esempio aumento improvviso delle puntate. Per questo si possono mettere in atto azioni per interrompere questo comportamento e mandare notifiche personalizzate per proporre limitazioni. Il secondo aspetto riguarda gli interventi personalizzati che possono offrire soluzioni su misura per ogni giocatore migliorando l’esperienza di gioco suggerendo ad esempio limiti di spesa o segnalando sempre un gioco compulsivo o proponendo un’autoesclusione calibrata. Il terzo aspetto combina questi due approcci realizzando la visione europea della ‘antropocentricità’, ovvero utilizzare questi strumenti per migliorare la capacità cognitive dell’essere umano. Con questi mezzi è possibile creare un ambiente di gioco sicuro e sostenibile dove la tecnologia supporta attivamente la protezione del giocatore”.
Ecco il webinar Fondazione Fair in versione integrale!