7 polémicas raciales en empresas tecnológicas que se hicieron virales

El racismo en Internet sigue muy presente
Las polémicas racistas salpican la actualidad continuamente. El mundo de la tecnología no es ajeno a atacar, aunque sea inconscientemente, las sensibilidades de muchos usuarios. Siete ejemplos en los que un error avergonzó a medio mundo

La triste actualidad no deja de recordarnos que queda mucho para que el sentimiento de igualdad de razas predomine en todo el mundo. El mundo de la tecnología suele estar muy concienciado por la igualdad racial, pero han existido casos en los que, ya sea por dejadez o ineptitud (no queremos pensar en que sea consciente), el software y el hardware de algunas marcas han copado las portadas por ser considerados racistas. Grandes empresas han tenido sus desencuentros con este delicado tema, pero también otros equipos de programación pequeños. Cada caso ha acabado solucionándose, ya sea eliminando el brote del problema o modificándolo. Aquí dejamos unos ejemplos de estas apps, programas, redes sociales, consolas e inteligencias artificiales que estuvieron en el punto de mira por su inequívoco mensaje racista.

Google maps y la 'casa del nigga'

Hace apenas un año, si buscábamos en Google Maps las palabras 'nigger house' desde el punto de vista general o 'nigger king' tras localizar Washington D.C. éste nos llevaba directamente a la vivienda del presidente de Estados Unidos, Barack Obama. La Casa Blanca, sobresalía en las dos búsquedas. No tardaron en hacerse eco los usuarios de todo el mundo, que reportaron este estrepitoso fallo. Google lo reconoció ante los medios de comunicación y pidió disculpas. Eso sí, no explicó del todo la causa del error. Se da por sentado que, o bien fue una broma poco graciosa de un empleado o quizá el algoritmo de la empresa tuvo más de un problema.

La Casa Blanca objetivo de un error racistaLa Casa Blanca objetivo de un error racista / Cezary p editada con licencia CC 4.0

Los nuevos emojis raciales

Que una actualización de los emojis sea bienvenida es algo habitual. Cada día nos estamos acostumbrando a convivir con ellos y forman parte de un sistema de comunicación global. Cada icono nuevo es bienvenido, siempre. Pero hubo un problema cuando se anunció la última gran actualización de emojis. Las caras e iconos abandonaban el color amarillo clásico y permitían escoger entre varios tonos de piel. Blanco, negro, marrón y... amarillo. El color amarillo pasó de ser la base con el que todo el mundo estaba contento a un signo de racismo. Existen personas de piel oscura y se refleja en los emojis, también de piel clara. Pero no existen personas amarillas más allá de Los Simpsons.

Los emojis siempre han sido amarillos, hasta ahora, que también tienen otros tonosLos emojis siempre han sido amarillos, hasta ahora, que también tienen otros tonos / Forsaken Fotos editada con licencia CC 2.0

Es por ello que muchos usuarios rechazaran ese color por representar un estereotipo. De ser una iniciativa por la diversidad del planeta esa actualización pareció poco menos que un ataque a los asiáticos. La realidad es que no había error, el Consorcio Unicode (el estándar de unificación de caracteres encargado de estos emojis) mantenía el tono genérico amarillo como uno más entre las novedades introducidas. Muchos asumieron que ese color representaba a los asiáticos, cuando no era así. Habían caído en su propia visión del racismo.

Google fotos, razas y animales

Fue viral. Este fallo en los algoritmos de reconocimiento visual de la aplicación Fotos de Google sirvió para poner en primera línea el tema de odio étnico. Esta polémica, recogida incluso en un excelente capítulo de la serie de televisión The Good Wife, alertó de los problemas que todavía tiene la tecnología de reconocimiento que diferenciaba, por ejemplo, paisajes, personas o animales. Una pareja alertó en redes sociales del problema de esta nueva característica de su servicio de imágenes. Los dos, de raza negra, habían sido etiquetados en la categoría 'gorilas', dentro de animales.

Un fallo atroz que golpeó seriamente a la empresa estadounidense. Los responsables pidieron disculpas y aceptaron el error. Aseguraron una mejora importante en el servicio y, de paso, quitaron esa etiqueta. Se habían reportado fallos por confundir algunos animales entre sí (como perros y caballos), pero ninguno había sido tan grave. Más tarde Google también tuvo que dar explicaciones por una nueva etiqueta, 'peinados no profesionales' en la que aparecían, normalmente, fotos de mujeres negras. Pero esa es otra historia.

Tay, la IA racista de Microsoft que negaba el genocidio nazi

El experimento de Microsoft tenía por objetivo indagar en las relaciones entre ordenadores y seres humanos. Era una inteligencia artificial que estaba programada para poder mantener conversaciones normales con personas y se lanzó en Twitter hace apenas cuatro meses. El bot fue creado por las divisiones de tecnología y búsqueda de Bing y su objetivo era charlar con las personas reales que pueblan la red social. Tenía una audiencia principalmente joven, entre los 18 y los 25 años y así lo reflejaba la imagen de chica joven utilizada para Tay.

Apenas un día después de su lanzamiento, los de Redmond tuvieron que eliminar la IA de su estado online, pues atacaba a otros usuarios, insultándolos. Entre estos improperios llamaban la atención los relacionados con la II Guerra Mundial, asegurando que el genocidio nunca había tenido lugar. También declaraba odiar a todo el mundo y respondía que las razas más peligrosas del mundo eran los negros y mejicanos. Un desastre sociológico que apenas duró unas horas. Todavía queda mucho que hacer en cuanto a bots realmente conversadores.

"Make me racista", dos apps eliminadas

A principios de 2013 Google tuvo que retirar dos aplicaciones de su tienda de apps para Android por ser consideradas racistas. Se trató de una iniciativa de los usuarios mediante la plataforma Change.org con la que consiguieron casi 8.500 firmas. Make me Asian y Make me Indian eran dos ejemplos repletos de tópicos sobre identidades culturales en las que, como podéis imaginar, nos convertían al estilo Snapchat o MSQRD en auténticos indios americanos y chinos. Editando nuestras fotografías podíamos añadir 'humorísticos' objetos estereotipados como coletas, bigotes finos o plumas.

También podíamos cambiar el color de nuestra piel para asemejarla más a las culturas que intentaban recrear estas aplicaciones, haciéndonos más tornando nuestra piel de color amarillo o rojo gradualmente. Se llegó a descargar entre 50.000 y 100.000 veces. No fue un éxito total, pero en el tiempo que estuvo disponible obtuvo unas cifras considerables. Según Change.org Google se defendió alegando que no era responsable del contenido de las aplicaciones debido a la naturaleza de código abierto de Android. Finalmente, eso sí, la empresa estadounidense decidió eliminar las dos apps y ya no encontramos nada en su dirección de la tienda virtual.

La PSP blanca y racista

Hace ya diez años la Playstation Portable, PSP, era una de las consolas de más éxito. Esta portátil, que acabó vendiendo más de 80 millones de copias en todo el mundo, protagonizó una publicidad en Holanda con motivo del lanzamiento del modelo blanco que no gustó a todos. En ese anuncio una mujer blanca vestida del mismo color agarraba a otra mujer negra con violencia. Existen varias fotografías de diferente índole en las que las modelos simulan una pelea, en este caso más racial que por motivo del color de la PSP. Tras las protestas de usuarios Sony decidió suspender esa campaña de publicidad, que llegó a exhibirse durante una semana en todas las grandes ciudades de Holanda. Pese a que los responsables de marketing no buscaban ese tono tan explícito, el resultado traspasó la publicidad agresiva para ser desagradable en términos de igualdad racial.

La inapropiada publicidad de Sony con PSPLa inapropiada publicidad de Sony con PSP / [Loz Pycock] editada con licencia CC 2.0

Xenofobia en redes sociales

Es un problema global. Cada vez más la libertad de expresión choca con los derechos de las personas. El límite, la línea que separa un simple comentario de un ataque en redes sociales se difumina según los protagonistas, el que realiza el ataque y quien lo recibe. Hace apenas un mes, la Unión de Estudiantes Judíos de Francia y las ONG SOS Racisme y SOS Homopobie mostraron la intención de denunciar a Twitter, YouTube y Facebook por no haber cumplido con su obligación a la hora de eliminar los contenidos inapropiados de sus entornos.

Una posible red social en un hipotético 1939Una posible red social en un hipotético 1939 / [Tanja Cappel] editada con licencia CC 2.0

Estos contenidos, no solo racistas, se pueden ver y leer diariamente. Eso sí, hay que añadir que el volumen de estas tres grandes webs dificulta la eliminación de contenido ilícito (algo que también está pasando con los vídeos de retransmisión en vivo de carácter violento). Estas tres organizaciones detectaron 660 comentarios o informaciones homófobas, racistas o directamente apoyando crímenes contra la Humanidad. Aseguraban que tan sólo un 4% de ellos fueron suprimidos en Twitter, un 7% en YouTube y un 34% en Facebook. Mucho trabajo por hacer, ya sea tanto por las empresas como por los propios usuarios.

[Lu Yu] editada con licencia CC 2.0

Relacionados

Nos encanta escucharte ¿Nos dejas tu opinión?