“La blanca ataca a la negra”


23/02/2021 a las 18:40

CET

Alberto Teruel

Antonio Radic, popularmente conocido como Agadmator, es un experto en ajedrez que se dedica analizar partidas en YouTube. Su canal de ajedrez, con 1,03 millones de suscriptores y más de 393 millones de visitas, es el más popular de la plataforma.

El pasado mes de junio, el canal de Radic fue bloqueado mientras presentaba un programa de ajedrez con Hikaru Nakamura. YouTube alegó que la censura se produjo por la emisión de “contenido dañino o peligroso”, pero cuando el creador de contenido croata quiso conocer el motivo exacto de su inhabilitación, no recibió ningún tipo de respuesta por parte de la plataforma.

Hello @YouTube @TeamYouTube @ytcreators.
My podcast with @GMHikaru was removed DURING PREMIERE because it violates your Community Guidelines.
The thing is, it doesn’t. Harmful or dangerous content?Really? It’s a chess channel. My appeal was instantly rejected and I got a strike. pic.twitter.com/K4gXm8mmvf

— agadmator (@agadmator) 27 de junio de 2020

A raiz de este incidente, los informáticos de la Universidad Carnegie Mellon comenzaron a investigar acerca del criterio utilizado por la plataforma para catalogar este tipo de contenido como peligroso. Al parecer, YouTube utiliza un algoritmo para detectar el racismo y discursos de odio similares, y la inteligencia podría haber reaccionado al entender que “el blanco ataca al negro”, a pesar de estar utilizado en el contexto de una partida de ajedrez, pertenecía a un discurso racista.

“Si confiamos en la inteligencia artificial para detectar el lenguaje racista, es normal que se produzcan este tipo de errores”, aseguró Ashiqur KhudaBukhsh, científico de la CMU, en declaraciones para el Corriere della Sera.

Para demostrar su teoría, los investigadores tomaron dos de los programas de software más conocidos para encontrar “discursos de odio y racistas” y les proporcionaron 680.000 comentarios de cinco canales de YouTube dedicados al ajedrez. Cerca de 1.000 fueron marcados como inapropiados. De ellos, el 82 por ciento no contenía referencias racistas, sino que pertenecían a la jerga del ajedrez. 

La solución a estos errores, según los investigadores, pasa por incorporar el lenguaje del ajedrez en el software de YouTube para evitar este tipo de confusiones.