skin
Menu

La promessa dell’intelligenza artificiale per il gioco responsabile

13 luglio 2024 - 10:43

L'Intelligenza artificiale non è soltanto la nuova frontiera per il marketing o per le performance dei prodotti ma rappresenta uno strumento prezioso per la tutela dei consumatori e le attività di prevenzione. La disamina di Ewa Bakun (Clarion Gaming).

© Igor Omilaev /Unsplash

Qualche settimana fa ho usato queste pagine per parlare dell’Intelligenza artificiale, riportando allora le discussioni del gruppo Ampersand, custodito da Clarion Gaming, e concentrandomi sui rischi che lIA pone e su come gestirli. Ma le simili capacità dell’Intelligenza artificiale che pongono quei rischi, se abusate nell’ambito di marketing e promozione, offrono anche opportunità promettenti nella gestione del gioco responsabile, soprattutto nell’ambito della prevenzione, che è proprio l’area in cui gli operatori possono sempre agire e contribuire alla minimizzazione del danno.

Agli operatori non interessano giocatori vulnerabili che si autoescludono e quindi vanno fuori della loro portata per lungo tempo, se non per sempre. Un'identificazione più rapida del possibile problema che il giocatore non ha ancora sviluppato, ma che i suoi atteggiamenti fuori norma indicano come rischio concreto, è quindi il focus degli sforzi degli operatori. Il rilevamento e - addirittura - un'anticipazione dei rischi e del danno, nelle fasi più iniziali possibili, diventa fondamentale per poter reagire adeguamente e supportare il giocatore nell'evitare il percorso pericoloso verso l’aggravamento del danno.

Con una sempre più avanzata comprensione dei primi segnali del gioco d’azzardo problematico (markers of harm), questo processo è diventato già oggi piuttosto automatizzato, il che facilita un approccio di massa. Ma il segreto sarebbe di transformarlo proprio da un approccio di massa a uno individuale così che ogni giocatore venga analizzato nelle sue singole e specifiche caratteristiche e nei comportamenti di gioco, invece di prendere come riferimento quelli di un segmento al quale viene associato. Ed è questa la promessa dell’Intelligenza artificiale che facilita questo tipo di un’analisi e consente una reazione individuale, però sempre in una maniera automatizzata e quindi praticabile per gli operatori con migliaia, o millioni, di consumatori nelle loro banche dati.

Ma che cosa dovrebbe succedere quando un atteggiamento pericoloso o un rischio dello sviluppo di danni viene identificato? Non sappiamo ancora abbastanza sulle tattiche provate ed effettive dell’intervento e dell’interazione con un consumatore già identificato come vulnerabile, nei suoi diversi livelli e stagioni di vulnerabilità. Lo stigma del giocatore vulnerabile e del linguaggio che usiamo per descriverlo non aiuta in questa interazione con il consumatore che spesso non è aperto o pronto a una conversazione di questo tipo, una conversazione delicata che richiede addestramento e sensibilità.

Quale potrebbe essere il ruolo dell’Intelligenza artificiale in questo ambito di interazioni, soprattutto vista la continua investigazione dei modelli verificati e di successo? Qualche anno fa si è puntato piuttosto sulla stagione della determinazione come il campo di coinvolgimento e promessa dell’IA, ma potrebbe essere utile anche in quello dell’intervento, materia un po’ più complicata, e che quindi forse esige un'assistenza umana.

Potremmo invece fidarci e contare sulle macchine nel trattamento di questa fase del processo?

Se basiamo questa decisione sulle nostre esperienze con i “bot” o con un agente automatico già così diffuso come quelli usati nel servizio clienti, la risposta sarebbe probabilmente negativa. Ma considerando proprio lo stigma affibbiato al gioco problematico che a volte, se non spesso, ostacola la sua ammissione nei confronti di un altro umano per via dei propri giudizi e pregudizi, sia quelli reali che quelli semplicemente immaginati dal giocatore, forse l’uso delle macchine e dell’Intelligenza artificiale potrebbe offrire un supporto.

Non sarebbe più facile ammettere la necessità di ricevere aiuto a una macchina, togliendo così il pregiudizio legato a un'interazione umana?

Sappiamo troppo poco – ad oggi - per trarre delle conclusioni su questi temi, ma sono argomenti già studiati nel settore del gioco, sia dagli accademici che dai fornitori di tecnologie e innovazioni, come quelle esibite nella Zona dell’industria sostenibile di Ice (fino al febbraio del 2024 chiamata la Zona della protezione del consumatore). Non a caso il workshop più richiesto nell’ampia offerta dei congressi dell’Ice Vox, quello sul gioco responsabile, si è concentrato sulla promessa dell’Intelligenza artificiale in questo ambito. Non a caso i regolatori, come quello spagnolo o italiano, hanno incluso nei loro piani l’investigazione e l’inclusione, come mandato, degli strumenti dell’Intelligenza artificiale nell’analisi dei giocatori dal punto di vista del gioco sano. La promessa, ma anche il requisito regolatorio, dell’intelligenza artificiale sono dunque sempre più reali.

 

 

 

 

Altri articoli su

Ti interessa questo argomento?
Registrati all’area riservata e segui i tuoi tag preferiti. Accederai all’elenco di tutti i nuovi articoli che usciranno legati a questi tag.

Articoli correlati