Uno strumento potentissimo, che non sappiamo dove possa portarci. Questo è l'intelligenza artificiale anche a detta di chi ha contribuito a svilupparla, e le parole di uno di loro, il noto Sam Atlman, fondatore e Ad di Open Ai, sono emblematiche.
"È facile immaginare che abbia un impatto massiccio sul mondo, che potenzialmente può andare molto male", spiega Altman dal palco di Davos, in Svizzera, dove è in corso la quarta giornata, dedicata al tema dell'intelligenza artificiale, del World Economic Forum.
Se da una parte l'intelligenza artificiale affascina (pensiamo solo alle potenzialità della sua applicazione in medicina e, in generale nella ricerca scientifica), è fuor di dubbio che lo strumento generi anche molte preoccupazioni etiche. Per Altman, come riporta l'agenzia Ansa, "è bene che le persone abbiano paura, possiamo imparare dalle lezioni del passato, come tecnologia può essere governata si possono fissare soglie di sicurezza", ha aggiunto, convinto che sarebbe sbagliato "non avere coscienza dell'importanza di quanto c'è in ballo, siamo nervosi ma crediamo che possiamo farcela. Il metodo è mettere la tecnologia nelle mani delle persone e vedere come convivono, come evolve".
E propone, Altman, l'istituzione di una Agenzia sovranazionale che gestisca l'Ia, così come è per l'energia atomica".
Già, come l'energia atomica anche l'intelligenza artificiale è potenzialmente favolosa quanto letale. Tra le capacità di questo strumento c'è la possibilità di raccogliere informazioni e dati vitali, ai limiti delle norme sulla privacy; anche la personalizzazione del prodotto, possibile con l'utilizzo dell’intelligenza artificiale, può creare problemi, spingendo ad esempio l'utente a prendere decisioni mirate; allo stesso modo possono creare problemi i cosiddetti digital humans, avatar che danno l'impressione di interagire con veri essere umani, ripuliti tuttavia dalle scoria di una comunicazione non verbale.
Nel frattempo si procede. Sam Altman dice che "L'idea è di immettere questa tecnologia nel mondo e vedere come va, dare il tempo di sviluppare regole, adattarsi, capirne i rischi".
Così, nel mondo del gaming,apprendiamo che proprio pochi giorni fa Valve, che gestisce Steam, una delle principali piattaforme mondiali dedicate al gioco online, ha modificato le regole per l'introduzione di nuovi giochi su Steam. In un post pubblicato sul blog dedicato alla sua community, Valve spiega che "dopo aver trascorso gli ultimi mesi a studiare meglio questo settore e a parlare con gli sviluppatori di giochi, abbiamo deciso di apportare delle modifiche al modo in cui gestiamo i giochi che utilizzano la tecnologia IA", consentendo il rilascio della "stragrande maggioranza dei giochi che la utilizzano."
L'utilizzo dell'intelligenza artificiale nei giochi, spiega Valve, è suddiviso in due grandi categorie di contenuti, "pre-generati: qualsiasi tipo di contenuto (illustrazioni, codice, suoni, ecc.) creato con l'ausilio di strumenti di intelligenza artificiale durante la fase di sviluppo" e "generati in tempo reale: qualsiasi tipo di contenuto creato con l'ausilio di strumenti di intelligenza artificiale mentre il gioco è in esecuzione."
Spiega quindi Valve che oltre ad aggiornare il sondaggio sui contenuti che gli sviluppatori compilano quando inviano tali contenuti a Steam, "stiamo rilasciando un nuovo sistema su Steam che consente ai giocatori di segnalare contenuti illegali generati dall'IA in tempo reale all'interno dei giochi. I giocatori possono inviare facilmente una segnalazione quando incontrano contenuti che ritengono avrebbero dovuto essere censurati dai sistemi di sicurezza sui contenuti generati dall'IA. Le modifiche odierne scaturiscono da una migliore comprensione della situazione e dei rischi in questo settore, oltre che dal dialogo con gli sviluppatori di giochi che utilizzano l'IA e con coloro che creano strumenti IA. Questo ci consentirà di essere molto più aperti al rilascio di giochi che utilizzano la tecnologia IA su Steam."
Tutto questo mentre, come accennato poco fa, la tecnologia non si ferma, è già applicata al mondo reale. L’intelligenza artificiale viene utilizzata proprio per creare nuovi ambienti di gioco, ma soprattutto per rispondere in maniera puntuale e immediata alle azioni del giocatore creando imprevedibilità al gioco stesso.
Lo spiega bene Claudia Molinari, visual designer e digital 2D artist, creative director, docente al Sae Institute di Milano e producer delle opere di We Are Muesli, studio di videogiochi indipendente: “L’Ai detiene un ruolo fondamentale a livello di personalizzazione e adattabilità, dal momento che fa sì che un gioco si adatti perfettamente alle esigenze e alle abilità di chi gioca e interviene in caso di comportamenti di cheating per mantenere un ambiente di gioco sicuro. Se tutti i progressi tecnologici compiuti in passato avevano lo scopo di sollevare l’uomo dal lavoro fisico, l’AI solleva l’umanità dal lavoro mentale e di pensiero”. Da qui l'esigenza di prendere dei provvedimenti affinché l’Ai sia una risorsa in grado di migliorare i nostri approcci e i nostri modi di gestire la socialità.
In questo senso proprio la cronaca di questi giorni propone un esempio virtuoso, ossia quello del Nara Institute of Science and Technology di Ikoma, in Giappone, dove dei ricercatori hanno presentato un nuova intelligenza artificiale capace di trasformare dei robot in perfetti companion per videogiocatori. Robot capaci di adattarsi alla caratteristiche, e alle esigenze, di chi hanno di fronte.
Un progetto, questo, presentato in occasione dell'undicesima conferenza internazionale sulle ricerche condotte nel campo dell'interazione tra uomo e macchina, che apre il campo a moltissime applicazioni, dalla semplice compagnia in momenti di solitudine a un concreto aiuto alle persone più anziane o con disabilità, ma anche, perché no, a compagni di allenamento capaci di incentivare e migliorare le performance dei pro-player in ambito esportivo.
I trenta partecipanti alla prova "sul campo" hanno riferito di trovare molto più divertente giocare con un robot che non giocare da soli.
Le enormi potenzialità, anche in ambito di intrattenimento, dell'intelligenza artificiale, tuttavia, vanno sempre calibrate con le parole di Atlman, che aggiunge: "possiamo imparare dalle lezioni del passato, come tecnologia può essere governata si possono fissare soglie di sicurezza", definendo sbagliato "non avere coscienza dell'importanza di quanto c'è in ballo" e chiosando: "siamo nervosi, ma crediamo che possiamo farcela."