Eli Pariser: Lo que Internet te oculta con los filtros

Amy Goodman y Juan González

Los cincuenta sitios web principales toman un promedio de 64 bits de información personal cada vez que alguien visita su página y luego diseñan sus sitios de acuerdo a las preferencias que los usuarios manifestan. ¿Qué efecto tendrán estos filtros online para el futuro de la democracia?

Hablamos con Eli Pariser, autor de The First Bubble: What the Internet Is Hiding from You (La primera burbuja: lo que Internet te oculta). “Pensemos por ejemplo en las noticias sobre Afganistán. Cuando uno habla con la gente que dirige los sitios de noticias, le dicen que la guerra en Afganistán no tiene un buen desempeño, que no tiene muchos clicks, es decir, que la gente no los consulta masivamente. Y sin embargo éste posiblemente sea uno de los temas más importantes que enfrenta nuestro país”, dice Pariser. “Pero [el tema de la guerra en Afganistán] nunca logrará pasar por esos filtros.

En Facebook en particular, éste es un problema porque en esa red la información se trasmite presionando el botón “Me gusta”. Y el botón “Me gusta” tiene un equilibrio muy particular. Es fácil de presionar “Me gusta” cuando las opciones son ‘Acabo de correr una maratón’ o ‘Hice una pastel fantástico’, pero es muy difícil presionar “Me gusta” cuando la opción es ‘La guerra en Afganistán ya lleva diez años’”.

Cuando sigues a tus amigos en Facebook o haces una búsqueda en Google, ¿qué información aparece y qué información se omite? De eso se trata el nuevo libro de Eli Pariser llamado The Filter Bubble: What the Internet is Hiding from You (La burbuja de los filtros: lo que Internet te oculta).

Según Pariser, Internet se está convirtiendo cada vez más en una caja de resonancia donde los sitios web adaptan la información a las preferencias que detectan en cada usuario. Yahoo! Noticias rastrea los artículos que leemos. Zappos registra el tipo de zapatos que elegimos y preferimos. Y Netflix almacena las películas que seleccionamos.

AMY GOODMAN: Los cincuenta principales sitios web toman un promedio de 64 bits de información personal cada vez que alguien visita sus páginas y luego diseñan sus sitios de acuerdo a las preferencias que los usuarios manifiestan. Mientras estos sitios sacan provecho al adaptar sus anuncios para visitantes específicos, los usuarios pagan un precio alto por vivir en una burbuja de información fuera de su control. En lugar de poder acceder ampliamente a información variada, estamos sujetos a filtros estrechos.

Eli Pariser es autor de The Filter Bubble: What the Internet is Hiding from You (La burbuja de los filtros: lo que Internet te oculta) y presidente ejecutivo de la organización MoveOn.org. Eli nos acompaña aquí en el estudio de Nueva York justo después de una gira relámpago por Estados Unidos. Bienvenido, Eli.

ELI PARISER: Gracias por la invitación.

AMY GOODMAN: Entonces, esto puede ser una sorpresa para la gente. Si Juan y yo entráramos a Internet y pusiéramos “Eli Pariser” en Google…

ELI PARISER: Sí.

AMY GOODMAN: …podemos llegar a encontrarnos con resultados y enlaces completamente diferentes.

ELI PARISER: Así es. A mí me sorprendió. No sabía que era así como funcionaba, hasta que me topé con una breve publicación en un blog en Google que decía “Búsqueda personalizada para todos”. Y resulta que en los últimos años, no ha habido un Google estandar. No hay un “este es el mejor enlace”. Sino, “éste es el mejor para ti”. Lo mejor para ti es aquello donde muy probablemente vayas a hacer clic. Entonces no es necesariamente lo que debes saber, sino lo que quieres saber y más probablemente vayas a elegir.

JUAN GONZÁLEZ: ¿Pero eso no va en contra de lo que en un principio atrajo a tanta gente a Google, es decir, que los algoritmos que Google había desarrollado realmente permitían ofrecer la mejor información que había en la red?

ELI PARISER: Sí. Si examinas qué decían del algoritmo original de Google, verás que se referían al mismo en términos explícitamente democráticos: que la red era una manera de votar, que cada página votaba por la credibilidad de otras páginas. Y esto es un cambio con respecto a aquello. Ahora Internet se está transformando en un espacio donde cada persona puede tener resultados distintos según dónde haga clic.

Hace poco lo hice con la palabra Egipto; le pedí a dos amigos que escribieran ”Egipto” en Google. Una persona tuvo resultados llenos de información sobre los protestas en ese país y lo que está pasando políticamente; la otra persona no recibió literalmente nada sobre las protestas, solo información sobre viajes a las pirámides.

AMY GOODMAN: ¿Puedes explicar eso otra vez? Es increíble. Entonces, uno ingresa; hay una rebelión en Egipto. De hecho, hoy hay una protesta en masa en la plaza Tahrir. Están protestando contra el consejo militar y otros temas. ¿Si yo busco Egipto y alguien a quien le gusta viajar también, tal vez no encontremos ni una referencia a la insurrección?

ELI PARISER: Así es. No había nada en los diez primeros enlaces. Y la mayoría de la gente solo usa los tres primeros enlaces que aparecen en Google. Entonces si Google no te muestra rápido el tipo de información que necesitas, realmente te la pierdes. Y esto no sólo está pasando en Google, sino en toda la red; lo descubrí cuando empecé a investigar.

Está pasando en los sitios más importantes y cada vez más en los sitios de noticias. Entonces, Yahoo! Noticias hace exactamente lo mismo, adapta los artículos que uno ve en el sitio Yahoo!Noticias a lo que el sitio cree que a uno le interesa. Y lo que nos preocupa es que esto está ocurriendo de manera invisible. No lo vemos en funcionamiento. No puedo decir en qué se diferencia el Internet que una persona ve del Internet que ven las demás, pero cada vez hay más diferencias.

JUAN GONZÁLEZ: ¿Qué dicen los que manejan estos buscadores con respecto a que sólo están respondiendo a los intereses y las necesidades de la gente que usa el sistema?

ELI PARISER: Dicen “Solo estamos dándole a la gente lo que la gente quiere”. Y yo digo: ¿Qué significa “lo que quiere?” Porque creo que todos queremos muchas cosas diferentes. Hay un yo compulsivo, un yo de corto plazo que hace clic en todos los chismes de la farándula y los artículos triviales y hay un yo de largo plazo que quiere estar informado sobre lo que pasa en el mundo y ser un buen ciudadano. Y ambas cosas son intencionales todo el tiempo. Tenemos esas dos fuerzas internas. Y los mejores medios de comunicación ayudan al yo de largo plazo a encontrar un poco de equilibrio. Nos dan algo así como información nutricional sobre las verduras y el postre y entonces uno puede lograr una dieta balanceada de información. Esto es como estar rodeado de calorías vacías, de información chatarra.

AMY GOODMAN: Eli, ¿puedes hablarnos de tu experiencia en tu propia página de Facebook?

ELI PARISER: Este fue el punto de partida para investigar ese fenómeno. Y básicamente, a partir de 2008 y después de que dejé de ser el director ejecutivo de MoveOn.org, hice una pequeña campaña para conocer y hacerme amigo de gente que pensaba diferente a mi. De veras quería escuchar lo que pensaban los conservadores, de qué hablaban, y aprender algunas cosas. Entonces agregué esa gente como amigos en Facebook. Y entré una mañana a la página y me di cuenta que no estaban. Habían desaparecido. Fue muy misterioso ¿adónde se fueron? Y resulta, que Facebook estaba monitoreando mis hábitos en el sitio. Estaba mirando todos los “Me gusta” donde yo hacía clic. Lo que me estaban diciendo era “Eli, dices que estás interesado en esa gente, pero de hecho, nosotros sabemos que haces clic más en los sitios progresistas que en los conservadores, entonces vamos a editarlos, vamos a quitar esa gente de tu página”. Y desaparecieron. Esta es una parte del peligro que hay en eso.

JUAN GONZÁLEZ: Pero ¿Facebook suprimió a tus amigos?

ELI PARISER: Sí. Realmente los echo de menos.

AMY GOODMAN: A tus amigos conservadores.

ELI PARISER: Sí, a mis amigos conservadores; aquí la jugada es lo que se llama sesgo de confirmación, que es básicamente nuestra tendencia a sentirnos bien con información que confirma lo que ya pensábamos. Y de hecho esto se puede observar en el cerebro. Hay un pequeño aumento de la dopamina cuando le dices a alguien que tiene razón. Por lo tanto, si pudiéramos construir un algoritmo que mostrara a la gente lo que tú quieres y si el único propósito fuera conseguir que la gente hiciera clic más veces y viera más páginas, ¿por qué les mostrarías algo que los hiciera sentir incómodos o que no tienen razón o que hay otras cosas en el mundo además de nuestras propias y estrechas ideas?

JUAN GONZÁLEZ: ¿Y eso no refuerza la polarización dentro de la sociedad, en el sentido de que la gente no está en contacto ni escucha los puntos de vista de otra gente con la que pueden estar en desacuerdo?

ELI PARISER: Sí. Es decir, la democracia necesita esta idea de discurso, que la gente oiga ideas diferentes, responda a ellas y piense en ellas. Y vuelvo a esa famosa cita de Daniel Patrick Moynihan que dice “Todos tenemos derecho a tener nuestras propias opiniones, pero no nuestra propia realidad”. Pero cada vez más se puede vivir en un mundo online en el que sí tienes tu propia realidad. Si buscas en Google “cambio climático” recibes los enlaces de cambio climático destinados a ti, pero no necesariamente recibes todo; ni siquiera sabemos cuáles son los argumentos alternativos.

JUAN GONZÁLEZ: ¿Cuáles son las implicaciones de esto, ya que todos –especialmente Google y Yahoo!- han desarrollado sus propias páginas de noticias? ¿Cuáles son las implicaciones en términos de las noticias que publican y las noticias que la gente recibe?

ELI PARISER: Aquí es donde la cosa se vuelve aún más preocupante, porque cuando lo que se intenta es que la gente haga clic en las opciones más veces y vea más páginas, hay muchas cosas que no van a alcanzar ese umbral. Tomemos por ejemplo las noticias sobre la guerra en Afganistán. Cuando uno habla con la gente que dirige los sitios de noticias, te dicen que las historias sobre la guerra en Afganistán no tienen un buen desempeño, que no reciben muchos clics, que la gente no las consulta masivamente. Y sin embargo, podría decirse que éste es uno de los temas más importantes que enfrenta nuestro país. Se lo debemos a la gente, como mínimo, para entender lo que está pasando. Pero [ese tema] nunca conseguirá pasar esos filtros.

En Facebook en particular, este es un problema porque en esa red la información se trasmite presionando el botón “Me gusta”. Y el botón “Me gusta”, tiene un equilibrio muy particular. Es fácil presionar “Me gusta” cuando las opciones son “Acabo de correr un maratón” o “Hice un pastel fantástico”, pero es muy difícil presionar “Me gusta” cuando la opción es “La guerra en Afganistán ya lleva diez años”. Así que la información agradable se trasmite; la información desagradable queda fuera.

AMY GOODMAN: Entonces Google no sólo sabe lo que estás buscando, ¿verdad?, además sabe dónde estás y el tipo de computadora que usas. ¿Cuánta información recogen de nosotros?

ELI PARISER: Es realmente asombroso. Si inicias sesión en Google, entonces Google obviamente tiene acceso a todo tu e-mail y todos los documentos que has subido; a mucha información. Pero incluso cuando sales, un ingeniero me contó que hay 57 señales que Google rastrea –“señal” es la palabra que usan para las variables que miran–, todo, desde la dirección IP de tu computadora –que es básicamente su dirección en Internet–, qué tipo de portátil o computadora y software estás usando, incluso cosas como el tamaño de la letra o cuánto tiempo te quedas mirando un enlace concreto. Y usan eso para desarrollar un perfil tuyo, una idea de qué tipo de persona eres. Y entonces usan eso para confeccionar a medida la información que te muestran.

Y esto está pasando en muchísimos sitios, no sólo en el buscador principal de Google, sino también en Google News. Y el plan de Google News es que, una vez que perfeccionen este algoritmo personalizado, se lo ofrecerán a otros sitios web de noticias, de modo que cualquier sitio de noticias pueda usar todos esos datos para adaptarse a ti. Hay cosas realmente importantes que van a quedar fuera si esos algoritmos no son muy buenos.

Esto plantea una especie de problema mayor con respecto a lo que pensamos de Internet, que es que tendemos a pensar en Internet como una especie de medio en el que cualquiera puede conectarse con cualquiera, muy democrático, libre para todos y mucho mejor que aquella vieja sociedad con guardianes que controlaban el flujo de la información. Realmente, no es así cómo están funcionando las cosas. Lo que estamos viendo es que un par de grandes compañías tienen la mayor parte del flujo de información y actúan como los nuevos guardianes. Esos algoritmos hacen lo mismo que los editores humanos, pero de forma mucho menos visible y con mucha menos responsabilidad.

JUAN GONZÁLEZ: ¿Qué opciones tienen las personas que usan ya sea Google, Yahoo! o Facebook para salirse, si es que hay alguna? ¿Qué capacidad tienen de controlar y mantener su información personal?

ELI PARISER: No hay opciones perfectas para salirse, porque aún si usaras una nueva computadora portátil, eso ya dice algo de ti, que compraste una Mac y no una PC. Quiero decir, es muy difícil salir del todo de esto. No hay forma de desconectarse completamente de Google. Pero ciertamente, puedes abrir una ventana de explorador privada. Eso ayuda.

Creo que, a largo plazo, hay dos cosas que tienen que pasar aquí. Una es que nosotros mismos entendamos mejor lo que está pasando porque es muy peligroso cuando funcionan estos tipos de filtros y uno no sabe y ni siquiera ve qué cosas están descartando. Eso es –y aquí es dónde las personas toman malas decisiones- lo que Donald Rumsfeld llamaba “las cosas que no sabemos que ignoramos”. Y eso crea muchas cosas que no sabemos que ignoramos. Uno no sabe cómo su experiencia del mundo está siendo editada.

Pero también estas compañías dicen que quieren ser buenas. “No seas malo” es el lema de Google. Quieren cambiar el mundo. Creo que tenemos que presionarlos para que estén a la altura de sus mejores valores como compañías e incorporen en estos algoritmos algo más que sólo esta idea tan limitada de lo que es importante.

AMY GOODMAN: Entonces, ¿qué dicen los líderes de Google, Facebook, Yahoo!? Quiero decir, ¿has hablado con ellos?

ELI PARISER: Lo intenté. Tuve una conversación breve con Larry Page en la que dijo “no creo que este sea un problema interesante”. Y eso fue todo. Pero, a otro nivel en la empresa Google, hay un montón de personas que están luchando contra esto. Hablé con un ingeniero de Facebook que lo resumió bastante bien y dijo “mira, lo que nos encanta hacer es dar con nuevas formas inteligentes para que la gente pase más tiempo en Facebook y somos muy buenos en eso. Esto es algo mucho más complicado de lo que nos estás pidiendo; nos estás pidiendo que pensemos acerca de nuestra responsabilidad social y nuestra responsabilidad cívica y qué tipo de información es importante. Este es un problema mucho más complicado. Nosotros solo queremos hacer la parte fácil”. Eso es un poco lo que nos coloca adonde estamos ubicados hoy.

Creo también que hay personas que ven el otro lado y dicen estamos frente a un problema grande y jugoso; se trata de cómo hacemos para recoger los mejores valores editoriales del siglo XX y trasladarlos a estos nuevos sistemas que están decidiendo lo que la gente ve y lo que la gente no ve.

AMY GOODMAN: ¿Cuánto dinero se gana con todo esto? Quiero decir, sólo este término neutral de “personalización” suena tan benévolo. De hecho, suena atractivo.

ELI PARISER: Sí, suena genial.

AMY GOODMAN: Está dirigido a usted y se adapta a usted. ¿Qué podría ser mejor?

ELI PARISER: Se basa en una especie de mundo online acogedor y familiar, donde tu sitio web favorito te saluda y dice: “Oh, Eli, hemos preparado todos estos artículos para ti. Bienvenido”. Es muy agradable.

Pero, lo que esto está haciendo es impulsar, en cierto modo, una lucha por el manejo de Internet que se está dando ahora mismo entre las diferentes empresas, para acumular la mayor cantidad de información sobre cada uno de nosotros. Y Facebook tiene su estrategia, que básicamente es pedirle a la gente que le cuente a sobre sí misma. Google tiene su estrategia que es mirar los clics que hacemos. Microsoft y Yahoo! tienen sus estrategias. Y todo esto desemboca en una base de datos, que luego se puede utilizar para hacer tres cosas. Puede orientar mejor los anuncios publicitarios, lo que honestamente creo que a veces está bien, siempre que uno sepa que lo están haciendo. Puede dirigir el contenido, lo cual creo que es mucho más problemático porque uno empieza a recibir un tipo de contenido que solo refleja lo que se cree que tú quieres ver. Y la tercera cosa es, que pueden tomar decisiones por ti.

Uno de los hallazgos más sorprendentes en el libro, es que los bancos están comenzando a mirar los amigos de la gente en Facebook y sus calificaciones de créditos para decidir a quién otorgar u ofrecer un crédito. Esto se basa en el hecho de que si nos fijamos en las calificaciones de crédito de las personas, se pueden hacer predicciones acerca de las calificaciones de crédito de los amigos de esas personas. Es escalofriante, porque lo que se está diciendo en realidad es que sería mejor no ser amigo en Facebook de personas que tienen calificaciones de créditos bajas. Pero esta no es precisamente la clase de sociedad que queremos construir.

JUAN GONZÁLEZ: Más atemorizante aún, obviamente, es que toda esa información personal le ahorra al gobierno un montón de trabajo en su capacidad de vigilar la población, porque las compañías privadas básicamente pueden recoger información y lo único que el gobierno tiene que hacer es emitir una orden de citación o hacer una llamada “por seguridad nacional necesitamos esa información”. De esa forma, en esencia, el gobierno no tiene que hacer una vigilancia real. Solo tiene que ser capaz de emplearla cuando sea necesario.

ELI PARISER: Hay un articulo divertido en Onion que se titula “La CIA descarta un programa nuevo y muy exitoso de Facebook”, lo que implica que la CIA inició Facebook para juntar datos. Y es divertido, pero también hay algo de verdad ahí, y es que esas compañías sí cuentan con bases de datos enormes y la información que esos servidores tienen de nosotros está mucho menos protegida que si estuviera en tu propia computadora. El FBI no necesita hacer tanto papelerío para pedir a Google tus datos, como sí debe hacerlo para ingresar a tu casa a revisar tu computadora. Ese es el lado negativo del sistema de computación en nube que permite que nuestros datos y todo lo que hacemos estén más y más disponibles para el gobierno y sus propósitos.

JUAN GONZÁLEZ: Y no sólo en un estado democrático, también en uno autoritario.

ELI PARISER: Así es. Es decir, se trata de un derivado natural de la consolidación de gran parte de lo que hacemos cuando estamos conectados a Internet en un número reducido de grandes compañías que en verdad no tienen que rendir mucha cuenta, que no están siendo muy presionadas por los gobiernos para hacerlo bien o de forma responsable. Naturalmente conduce a abusos.


Traducido por Caret Beemer, Marta Baussels, Alejandra Burgos

Dejar una respuesta