Cuando Google lanzó su función Autocompletar parecía una buena idea. Nada más empezar a escribir una palabra, el buscador intenta adivinar lo que estamos buscando y ofrece sugerencias para completar la frase. Pero esa buena intención está perpetuando estereotipos racistas y homófobos. Un estudio muestra cómo muchas de esas búsquedas son autocompletadas con palabras despectivas hacia determinadas minorías. Pero la culpa no es de Google ni de sus algoritmos. Es de la condición humana, de los prejuicios de los que aquéllos se alimentan.
En 2010, Google introdujo dos nuevas funciones que, combinadas, pretendían hacernos la vida más fácil. Por un lado, la función Instant muestra resultados nada más empezar a escribir en la ventana del buscador. Por el otro, Autocompletar ofrece sugerencias apenas se comienza a escribir una búsqueda. Y lo hace basándose en lo que otros internautas han buscado con anterioridad. El algoritmo de Google supone que las más populares serán las acertadas. Esto hace que no tengamos que escribir toda la frase. Además, detecta los errores que cometemos al escribir, como bailar dos letras, y recupera los resultados de búsquedas anteriores. Sonaba muy bien.
Pero desde entonces, la función Autocompletar le ha traído muchos problemas a Google. La Justicia alemana y la japonesa ya han dictado sentencias contra el buscador en un par de casos de difamación. Según el último informe de transparencia de Google, el Gobierno argentino solicitó a la compañía deshabilitar una sugerencia en el caso de un político que acababa asociando a una droga. En España, Autocompletar ofrece resultados más que llamativos al escribir Rajoy es... o Zapatero es... Incluso una reciente campaña de la ONU ha usado los resultados machistas que ofrece esta función para una campaña por la igualdad de género. Pero son casos individuales y anecdóticos.
Sin embargo, dos expertos británicos en sociolingüística de la Universidad de Lancaster querían saber qué sugiere Google cuando le preguntas por distintos grupos sociales. Para ello, bombardearon al buscador con 2.690 cuestiones del tipo por qué los gays... o los negros deberían ... Organizaron las distintas categorías según raza, sexo, orientación sexual o religión. Y codificaron las sugerencias que ofrecía Autocompletar para detectar las estereotipadas.
Tal como publican en la revista Critical Discourse Studies, los mayores porcentajes de estereotipos negativos aparecen con los negros y los gays. Así, si se pregunta a Google por qué los gays... Autocompletar ofrece sugerencias como que tienen la voz aguda, cogen el SIDA o existen (todos los ejemplos están traducidos del inglés). Con los negros, se mezclan estereotipos negativos sobre delincuencia con supuestos positivos como su condición atlética. En ambos casos, más de la mitad de las sugerencias contenían algún prejuicio.
Otras minorías, como los asiáticos y los musulmanes también presentan altos porcentajes de sugerencias basadas en estereotipos. Sin embargo, los términos mujer, hetero o lesbiana muestran un numero reducido de asociaciaciones negativas. Para los autores, el caso de las lesbianas puede deberse a su relativa invisibilidad social o a que los esterotipos hacia ellas ya están recogidos en el grupo genérico de los gays.
"Estas sugerencias aparecen porque son el tipo de cuestiones que otros han escrito en Google anteriormente con una relativa alta frecuencia", escriben los autores. Aunque su trabajo se ha realizado con la versión británica del buscador, creen que sus resultados pueden extenderse a otras zonas de habla inglesa. Pero aseguran que debería de realizarse un análisis sistemático de la función Autocompletar en otras lenguas y culturas para corroborar sus resultados.
Sin pretender que tenga una validez científica, se puede comprobar que la versión española de Google también reproduce estos estereotipos, en particular con los gays, gitanos y judíos. También muestra algunos estereotipos regionales como el del vago andaluz o contra los catalanes.
Aunque los investigadores no creen que estas sugerencias provoquen que un gran número de personas interioricen estos estereotipos, sí consideran que pueden ser una ofensa para muchos y, en el caso de determinados usuarios, como los jóvenes, podrían reforzar su capacidad para reproducir esos prejuicios en otros contextos. Además, añaden, "otros usuarios que ya tienen tales estereotipos pueden creer que sus actitudes son validadas porque las sugerencias aparecen en un buscador tan respetado como Google".
Pero el margen para cambiar estos resultados es estrecho. La función Autocompletar no se puede desactivar. Google, además, explica que sus predicciones se determinan mediante un procedimiento algorítmico en función de una serie de factores (incluida la popularidad de los términos de búsqueda) sin intervención humana. Sólo aplican la censura para eliminar contenido pornográfico, violento o de promoción del odio y determinados términos usados para buscar material sujeto a derechos de autor.
El dilema es de fondo. Google, como empresa, practica una política muy inclusiva de las minorias. También, sus principales directivos se han manifestado a favor del matrimonio homosexual. Además, el algoritmo que rige la función de Autocompletar sólo muestra lo que los usuarios buscan. Como plantean los autores del estudio, las sugerencias de autocompletado ofrecen una ventana a la conciencia colectiva de internet, mostrando lo que mucha gente realmente cree. Sin embargo, también está la cuestión de la responsabilidad. No intervenir supone la perpetuación de los estereotipos. Los investigadores plantean una posible solución que ya están usando otras páginas: que los usuarios puedan etiquetar o asignar un voto negativo o positivo a cada sugerencia. Así, con el tiempo, las más estereotipadas podrían desaparecer. O quizá no.