Una nuova IA costruita per combattere la tossicità dei giocatori nei giochi online ha portato al ban di 20,000 giocatori di Counter-Strike: Global Offensive in sole sei settimane, solamente analizzando i messaggi nella chat del gioco.
La IA è chiamata Minerva, ed è stata sviluppata da un team di FACEIT, una online gaming platform, che nel 2018 ha organizzato il CS:GO London Major, in collaborazione con Google Cloud e Jigsaw, un tech incubator di Google. Minerva ha iniziato ad analizzare i messaggi nella chat di CS:GO a fine Agosto, e nel primo mese e mezzo ha marcato oltre 7 milioni di messaggi come tossici, inviato 90,000 avvisi e bannato 20,000 giocatori.
La IA, addestrata tramite il machine learning, prima invia un avviso per abusi verbali se un messaggio viene percepito come tossico, e riesce a riconoscere anche i messaggi di spam. Dopo pochi secondi dalla fine della partita, Minerva manda gli avvisi o i ban (se giocatori recidivi) ai giocatori ritenuti offensivi.
Il numero di messaggi tossici è diminuito del 20% tra Agosto e Settembre mentre la IA era in uso, e il numero di giocatori che inviano messaggi tossici è diminuito dell' 8%.
La prova è iniziata dopo mesi di analisi di falsi positivi, e questo rappresenta solo il primo passo per far affermare Minerva nel mondo del gaming online.
Questa è solamente la prima e la più semplice applicazione di Minerva ai giochi online e rappresenta solamente il rpimo passo per questa IA. Siamo veramente eccitati dei progressi fatti e continueremo a migliorarla fino a che non sarà in grado di prendere provvedimenti in tempo reale.
Nelle prossime settimane annuncieremo altri sistemi che aiuterannot a migliorare Minerva.
Commenti
Commenta come Ospite