Qualche settimana fa ho usato queste pagine per parlare dell’Intelligenza artificiale, riportando allora le discussioni del gruppo Ampersand, custodito da Clarion Gaming, e concentrandomi sui rischi che lIA pone e su come gestirli. Ma le simili capacità dell’Intelligenza artificiale che pongono quei rischi, se abusate nell’ambito di marketing e promozione, offrono anche opportunità promettenti nella gestione del gioco responsabile, soprattutto nell’ambito della prevenzione, che è proprio l’area in cui gli operatori possono sempre agire e contribuire alla minimizzazione del danno.
Agli operatori non interessano giocatori vulnerabili che si autoescludono e quindi vanno fuori della loro portata per lungo tempo, se non per sempre. Un'identificazione più rapida del possibile problema che il giocatore non ha ancora sviluppato, ma che i suoi atteggiamenti fuori norma indicano come rischio concreto, è quindi il focus degli sforzi degli operatori. Il rilevamento e - addirittura - un'anticipazione dei rischi e del danno, nelle fasi più iniziali possibili, diventa fondamentale per poter reagire adeguamente e supportare il giocatore nell'evitare il percorso pericoloso verso l’aggravamento del danno.
Con una sempre più avanzata comprensione dei primi segnali del gioco d’azzardo problematico (markers of harm), questo processo è diventato già oggi piuttosto automatizzato, il che facilita un approccio di massa. Ma il segreto sarebbe di transformarlo proprio da un approccio di massa a uno individuale così che ogni giocatore venga analizzato nelle sue singole e specifiche caratteristiche e nei comportamenti di gioco, invece di prendere come riferimento quelli di un segmento al quale viene associato. Ed è questa la promessa dell’Intelligenza artificiale che facilita questo tipo di un’analisi e consente una reazione individuale, però sempre in una maniera automatizzata e quindi praticabile per gli operatori con migliaia, o millioni, di consumatori nelle loro banche dati.
Ma che cosa dovrebbe succedere quando un atteggiamento pericoloso o un rischio dello sviluppo di danni viene identificato? Non sappiamo ancora abbastanza sulle tattiche provate ed effettive dell’intervento e dell’interazione con un consumatore già identificato come vulnerabile, nei suoi diversi livelli e stagioni di vulnerabilità. Lo stigma del giocatore vulnerabile e del linguaggio che usiamo per descriverlo non aiuta in questa interazione con il consumatore che spesso non è aperto o pronto a una conversazione di questo tipo, una conversazione delicata che richiede addestramento e sensibilità.
Quale potrebbe essere il ruolo dell’Intelligenza artificiale in questo ambito di interazioni, soprattutto vista la continua investigazione dei modelli verificati e di successo? Qualche anno fa si è puntato piuttosto sulla stagione della determinazione come il campo di coinvolgimento e promessa dell’IA, ma potrebbe essere utile anche in quello dell’intervento, materia un po’ più complicata, e che quindi forse esige un'assistenza umana.
Potremmo invece fidarci e contare sulle macchine nel trattamento di questa fase del processo?
Se basiamo questa decisione sulle nostre esperienze con i “bot” o con un agente automatico già così diffuso come quelli usati nel servizio clienti, la risposta sarebbe probabilmente negativa. Ma considerando proprio lo stigma affibbiato al gioco problematico che a volte, se non spesso, ostacola la sua ammissione nei confronti di un altro umano per via dei propri giudizi e pregudizi, sia quelli reali che quelli semplicemente immaginati dal giocatore, forse l’uso delle macchine e dell’Intelligenza artificiale potrebbe offrire un supporto.
Non sarebbe più facile ammettere la necessità di ricevere aiuto a una macchina, togliendo così il pregiudizio legato a un'interazione umana?
Sappiamo troppo poco – ad oggi - per trarre delle conclusioni su questi temi, ma sono argomenti già studiati nel settore del gioco, sia dagli accademici che dai fornitori di tecnologie e innovazioni, come quelle esibite nella Zona dell’industria sostenibile di Ice (fino al febbraio del 2024 chiamata la Zona della protezione del consumatore). Non a caso il workshop più richiesto nell’ampia offerta dei congressi dell’Ice Vox, quello sul gioco responsabile, si è concentrato sulla promessa dell’Intelligenza artificiale in questo ambito. Non a caso i regolatori, come quello spagnolo o italiano, hanno incluso nei loro piani l’investigazione e l’inclusione, come mandato, degli strumenti dell’Intelligenza artificiale nell’analisi dei giocatori dal punto di vista del gioco sano. La promessa, ma anche il requisito regolatorio, dell’intelligenza artificiale sono dunque sempre più reali.