Internet se está convirtiendo cada vez más en una cámara de resonancia
donde los sitios web adaptan la información a las preferencias que
detectan de cada usuario. Cuando los usuarios buscan la palabra
“Egipto”, algunos pueden consultar las últimas noticias sobre la
revolución y otros pueden solamente consultar los resultados
relacionados con unas vacaciones en ese país.
Los cincuenta sitios web principales toman un promedio de 64 bits de
información personal cada vez que alguien visita su página y luego
diseñan sus sitios de acuerdo a las preferencias que los usuarios
manifestan. ¿Qué efecto tendrán estos filtros online para el futuro de
la democracia? Hablamos con Eli Pariser, autor de The First Bubble:What the Internet Is Hiding from You
(La primera burbuja: lo que Internet te oculta). "Pensemos por ejemplo
en las noticias sobre Afganistán. Cuando uno habla con la gente que
dirige los sitios de noticias, le dicen que la guerra en Afganistán no
tiene un buen desempeño, que no tiene muchos clicks, es decir, que la
gente no los consulta masivamente. Y sin embargo éste posiblemente sea
uno de los temas más importantes que enfrenta nuestro país", dice
Pariser. "Pero [el tema de la guerra en Afganistán] nunca logrará pasar
por esos filtros. En Facebook en particular, este es un problema porque
en esa red la información se trasmite presionando el botón "Me gusta". Y
el botón "Me gusta" tiene un equilibrio muy particular. Es fácil de
presionar "Me gusta" cuando las opciones son ‘Acabo de correr una
maratón’ o ‘Hice una pastel fantástico’, pero es muy difícil presionar
“Me gusta” cuando la opción es ‘La guerra en Afganistán ya lleva diez
años’”.
JUAN GONZÁLEZ: Cuando
sigues a tus amigos en Facebook o haces una búsqueda en Google, ¿qué
información aparece y qué información se omite? De eso se trata el nuevo
libro de Eli Pariser llamado The Filter Bubble: What the Internet is
Hiding from You (La burbuja de los filtros: lo que Internet te oculta).
Según Pariser, Internet se está convirtiendo cada vez más en una caja de
resonancia donde los sitios web adaptan la información a las
preferencias que detectan en cada usuario. Yahoo! Noticias rastrea los
artículos que leemos. Zappos registra el tipo de zapatos que elegimos y
preferimos. Y Netflix almacena las películas que seleccionamos.
AMY GOODMAN:
Los cincuenta principales sitios web toman un promedio de 64 bits de
información personal cada vez que alguien visita sus páginas y luego
diseñan sus sitios de acuerdo a las preferencias que los usuarios
manifiestan. Mientras estos sitios sacan provecho al adaptar sus
anuncios para visitantes específicos, los usuarios pagan un precio alto
por vivir en una burbuja de información fuera de su control. En lugar de
poder acceder ampliamente a información variada, estamos sujetos a
filtros estrechos.
Eli Pariser es autor de The Filter Bubble: What the Internet is Hiding
from You (La burbuja de los filtros: lo que Internet te oculta) y
presidente ejecutivo de la organización MoveOn.org. Eli nos acompaña
aquí en el estudio de Nueva York justo después de una gira relámpago por
Estados Unidos. Bienvenido, Eli.
ELI PARISER: Gracias por la invitación.
AMY GOODMAN: Entonces, esto puede ser una sorpresa para la gente. Si Juan y yo entráramos a Internet y pusiéramos "Eli Pariser" en Google …
ELI PARISER: Sí.
AMY GOODMAN: ... podemos llegar a encontrarnos con resultados y enlaces completamente diferentes.
ELI PARISER:
Así es. A mí me sorprendió. No sabía que era así como funcionaba, hasta
que me topé con una breve publicación en un blog en Google que decía
“Búsqueda personalizada para todos”. Y resulta que en los últimos años,
no ha habido un Google estandar. No hay un “este es el mejor enlace”.
Sino, “éste es el mejor para ti”. Lo mejor para ti es aquello donde muy
probablemente vayas a hacer clic. Entonces no es necesariamente lo que
debes saber, sino lo que quieres saber y más probablemente vayas a
elegir.
JUAN GONZÁLEZ: ¿Pero eso
no va en contra de lo que en un principio atrajo a tanta gente a Google,
es decir, que los algoritmos que Google había desarrollado realmente
permitían ofrecer la mejor información que había en la red?
ELI PARISER:
Sí. Si examinas qué decían del algoritmo original de Google, verás que
se referían al mismo en términos explícitamente democráticos: que la red
era una manera de votar, que cada página votaba por la credibilidad de
otras páginas. Y esto es un cambio con respecto a aquello. Ahora
Internet se está transformando en un espacio donde cada persona puede
tener resultados distintos según dónde haga clic.
Hace poco lo hice con la palabra Egipto; le pedí a dos amigos que
escribieran ”Egipto” en Google. Una persona tuvo resultados llenos de
información sobre los protestas en ese país y lo que está pasando
políticamente; la otra persona no recibió literalmente nada sobre las
protestas, solo información sobre viajes a las pirámides.
AMY GOODMAN:
¿Puedes explicar eso otra vez? Es increíble. Entonces, uno ingresa; hay
una rebelión en Egipto. De hecho, hoy hay una protesta en masa en la
plaza Tahrir. Están protestando contra el consejo militar y otros temas.
¿Si yo busco Egipto y alguien a quien le gusta viajar también, tal vez
no encontremos ni una referencia a la insurrección?
ELI PARISER:
Así es. No había nada en los diez primeros enlaces. Y la mayoría de la
gente solo usa los tres primeros enlaces que aparecen en Google.
Entonces si Google no te muestra rápido el tipo de información que
necesitas, realmente te la pierdes. Y esto no sólo está pasando en
Google, sino en toda la red; lo descubrí cuando empecé a investigar.
Está pasando en los sitios más importantes y cada vez más en los sitios
de noticias. Entonces, Yahoo! Noticias hace exactamente lo mismo, adapta
los artículos que uno ve en el sitio Yahoo!Noticias a lo que el sitio
cree que a uno le interesa. Y lo que nos preocupa es que esto está
ocurriendo de manera invisible. No lo vemos en funcionamiento. No puedo
decir en qué se diferencia el Internet que una persona ve del Internet
que ven las demás, pero cada vez hay más diferencias.
JUAN GONZÁLEZ: ¿Qué dicen
los que manejan estos buscadores con respecto a que sólo están
respondiendo a los intereses y las necesidades de la gente que usa el
sistema?
ELI PARISER:
Dicen "Solo estamos dándole a la gente lo que la gente quiere". Y yo
digo: ¿Qué significa "lo que quiere?" Porque creo que todos queremos
muchas cosas diferentes. Hay un yo compulsivo, un yo de corto plazo que
hace clic en todos los chismes de la farándula y los artículos triviales
y hay un yo de largo plazo que quiere estar informado sobre lo que pasa
en el mundo y ser un buen ciudadano. Y ambas cosas son intencionales
todo el tiempo. Tenemos esas dos fuerzas internas. Y los mejores medios
de comunicación ayudan al yo de largo plazo a encontrar un poco de
equilibrio. Nos dan algo así como información nutricional sobre las
verduras y el postre y entonces uno puede lograr una dieta balanceada de
información. Esto es como estar rodeado de calorías vacías, de
información chatarra.
AMY GOODMAN: Eli, ¿puedes hablarnos de tu experiencia en tu propia página de Facebook?
ELI PARISER:
Este fue el punto de partida para investigar ese fenómeno. Y
básicamente, a partir de 2008 y después de que dejé de ser el director
ejecutivo de MoveOn.org, hice una pequeña campaña para conocer y hacerme
amigo de gente que pensaba diferente a mi. De veras quería escuchar lo
que pensaban los conservadores, de qué hablaban, y aprender algunas
cosas. Entonces agregué esa gente como amigos en Facebook. Y entré una
mañana a la página y me di cuenta que no estaban. Habían desaparecido.
Fue muy misterioso ¿adónde se fueron? Y resulta, que Facebook estaba
monitoreando mis hábitos en el sitio. Estaba mirando todos los "Me
gusta" donde yo hacía clic. Lo que me estaban diciendo era "Eli, dices
que estás interesado en esa gente, pero de hecho, nosotros sabemos que
haces clic más en los sitios progresistas que en los conservadores,
entonces vamos a editarlos, vamos a quitar esa gente de tu página”. Y
desaparecieron. Esta es una parte del peligro que hay en eso.
JUAN GONZÁLEZ: Pero ¿Facebook suprimió a tus amigos?
ELI PARISER: Sí. Realmente los echo de menos.
AMY GOODMAN: A tus amigos conservadores.
ELI PARISER:
Sí, a mis amigos conservadores; aquí la jugada es lo que se llama sesgo
de confirmación, que es básicamente nuestra tendencia a sentirnos bien
con información que confirma lo que ya pensábamos. Y de hecho esto se
puede observar en el cerebro. Hay un pequeño aumento de la dopamina
cuando le dices a alguien que tiene razón. Por lo tanto, si pudiéramos
construir un algoritmo que mostrara a la gente lo que tú quieres y si el
único propósito fuera conseguir que la gente hiciera clic más veces y
viera más páginas, ¿por qué les mostrarías algo que los hiciera sentir
incómodos o que no tienen razón o que hay otras cosas en el mundo además
de nuestras propias y estrechas ideas?
JUAN GONZÁLEZ: ¿Y eso no
refuerza la polarización dentro de la sociedad, en el sentido de que la
gente no está en contacto ni escucha los puntos de vista de otra gente
con la que pueden estar en desacuerdo?
ELI PARISER:
Sí. Es decir, la democracia necesita esta idea de discurso, que la
gente oiga ideas diferentes, responda a ellas y piense en ellas. Y
vuelvo a esa famosa cita de Daniel Patrick Moynihan que dice “Todos
tenemos derecho a tener nuestras propias opiniones, pero no nuestra
propia realidad”. Pero cada vez más se puede vivir en un mundo online en
el que sí tienes tu propia realidad. Si buscas en Google “cambio
climático” recibes los enlaces de cambio climático destinados a ti, pero
no necesariamente recibes todo; ni siquiera sabemos cuáles son los
argumentos alternativos.
JUAN GONZÁLEZ: ¿Cuáles son
las implicaciones de esto, ya que todos –especialmente Google y Yahoo!-
han desarrollado sus propias páginas de noticias? ¿Cuáles son las
implicaciones en términos de las noticias que publican y las noticias
que la gente recibe?
ELI PARISER:
Aquí es donde la cosa se vuelve aún más preocupante, porque cuando lo
que se intenta es que la gente haga clic en las opciones más veces y vea
más páginas, hay muchas cosas que no van a alcanzar ese umbral. Tomemos
por ejemplo las noticias sobre la guerra en Afganistán. Cuando uno
habla con la gente que dirige los sitios de noticias, te dicen que las
historias sobre la guerra en Afganistán no tienen un buen desempeño, que
no reciben muchos clics, que la gente no las consulta masivamente. Y
sin embargo, podría decirse que éste es uno de los temas más importantes
que enfrenta nuestro país. Se lo debemos a la gente, como mínimo, para
entender lo que está pasando. Pero [ese tema] nunca conseguirá pasar
esos filtros. En Facebook en particular, este es un problema porque en
esa red la información se trasmite presionando el botón “Me gusta”. Y el
botón “Me gusta”, tiene un equilibrio muy particular. Es fácil
presionar “Me gusta” cuando las opciones son “Acabo de correr un
maratón” o “Hice un pastel fantástico”, pero es muy difícil presionar
“Me gusta” cuando la opción es “La guerra en Afganistán ya lleva diez
años”. Así que la información agradable se trasmite; la información
desagradable queda fuera.
AMY GOODMAN:
Estamos hablando con Eli Pariser, autor del libro The Filter Bubble:
What the Internet Is Hiding from You (La burbuja de los filtros: lo que
Internet te oculta). Entonces Google no sólo sabe lo que estás
buscando, ¿verdad?, además sabe dónde estás y el tipo de computadora que
usas. ¿Cuánta información recogen de nosotros?
ELI PARISER:
Es realmente asombroso. Si inicias sesión en Google, entonces Google
obviamente tiene acceso a todo tu e-mail y todos los documentos que has
subido; a mucha información. Pero incluso cuando sales, un ingeniero me
contó que hay 57 señales que Google rastrea –“señal” es la palabra que
usan para las variables que miran–, todo, desde la dirección IP de tu
computadora –que es básicamente su dirección en Internet–, qué tipo de
portátil o computadora y software estás usando, incluso cosas como el
tamaño de la letra o cuánto tiempo te quedas mirando un enlace concreto.
Y usan eso para desarrollar un perfil tuyo, una idea de qué tipo de
persona eres. Y entonces usan eso para confeccionar a medida la
información que te muestran.
Y esto está pasando en muchísimos sitios, no sólo en el buscador
principal de Google, sino también en Google News. Y el plan de Google
News es que, una vez que perfeccionen este algoritmo personalizado, se
lo ofrecerán a otros sitios web de noticias, de modo que cualquier sitio
de noticias pueda usar todos esos datos para adaptarse a ti. Hay cosas
realmente importantes que van a quedar fuera si esos algoritmos no son
muy buenos.
Esto plantea una especie de problema mayor con respecto a lo que
pensamos de Internet, que es que tendemos a pensar en Internet como una
especie de medio en el que cualquiera puede conectarse con cualquiera,
muy democrático, libre para todos y mucho mejor que aquella vieja
sociedad con guardianes que controlaban el flujo de la información.
Realmente, no es así cómo están funcionando las cosas. Lo que estamos
viendo es que un par de grandes compañías tienen la mayor parte del
flujo de información y actúan como los nuevos guardianes. Esos
algoritmos hacen lo mismo que los editores humanos, pero de forma mucho
menos visible y con mucha menos responsabilidad.
JUAN GONZÁLEZ: ¿Qué opciones
tienen las personas que usan ya sea Google, Yahoo! o Facebook para
salirse, si es que hay alguna? ¿Qué capacidad tienen de controlar y
mantener su información personal?
ELI PARISER:
No hay opciones perfectas para salirse, porque aún si usaras una nueva
computadora portátil, eso ya dice algo de ti, que compraste una Mac y no
una PC. Quiero decir, es muy difícil salir del todo de esto. No hay
forma de desconectarse completamente de Google. Pero ciertamente, puedes
abrir una ventana de explorador privada. Eso ayuda.
Creo que, a largo plazo, hay dos cosas que tienen que pasar aquí. Una
es que nosotros mismos entendamos mejor lo que está pasando porque es
muy peligroso cuando funcionan estos tipos de filtros y uno no sabe y
ni siquiera ve qué cosas están descartando. Eso es –y aquí es dónde las
personas toman malas decisiones- lo que Donald Rumsfeld llamaba “las
cosas que no sabemos que ignoramos”. Y eso crea muchas cosas que no
sabemos que ignoramos. Uno no sabe cómo su experiencia del mundo está
siendo editada.
Pero también estas compañías dicen que quieren ser buenas. “No seas
malo” es el lema de Google. Quieren cambiar el mundo. Creo que tenemos
que presionarlos para que estén a la altura de sus mejores valores como
compañías e incorporen en estos algoritmos algo más que sólo esta idea
tan limitada de lo que es importante.
Tomado de Democracy Now
Eli Pariser habla de la responsabilidad de google en la formacion de la burbujas pero y que de la responsabilidad de los usuarios?
ResponderEliminarque los usuarios solo usan los 3 primeros enlaces. porque no ojean la pagina completa? por flojera me parece a mi
finalmente los que creamos nuestras preferencia somos nosotros. esos algoritmos solo realzan nuestra mediocridad.
Google no hizo a la gente mediocre. Google puede darle la informacion que (como dijo Pariser) y no por eso podemos esperar que la gente salga de su mediocridad
de modo que la verdadera solucion a las burbajas de internet esta ante todo en nosotros.