
I troll sono ovunque online, su questo non c’è dubbio. Il problema maggiore fino ad ora è stato quello di identificare quelle espressioni classificabili come linguaggio offensivo. A quanto sembra gli esseri umani sono parecchio inadatti a questo scopo.
Il nuovo algoritmo di Yahoo tuttavia è differente: è stato infatti in grado di identificare un commento abusivo nel 90% dei casi, un livello di efficienza impensabile per qualunque essere umano e per altri sistemi fino ad ora utilizzati. L’azienda afferma di utilizzare una combinazione di machine learning e suggerimenti forniti dagli utenti in modo indiretto per costruire l’algoritmo.
Questo algoritmo non cerca qualche parola in particolare, questo per evitare errori già commessi da altre AI, le quali scambiavano commenti sarcastici come offese; l’algoritmo di Yahoo è differente, va in cerca infatti di parole specifiche in combinazione con altre parole, considera inoltre la lunghezza del post, la punteggiatura e altre metriche per determinare se un commento costituisca o meno un offesa. L’AI è aiutata da alcuni assistenti umani che classificano i commenti per facilitare il processo di apprendimento dell’AI.
L’algoritmo ancora non è stato testato al di fuori di Yahoo, ma l’azienda è fiduciosa sul fatto che in futuro spianerà la strada nel campo dell’analisi linguistica sul web.