Desde sus primeros días, Silicon Valley ha sido apuntalado
por una manera casi absolutista de pensar en la libertad de expresión. Fuera de
excepciones por fraude, pornografía o amenazas específicas, la opinión
prevaleciente entre muchas plataformas tecnológicas ha sido permitir que
prácticamente cualquiera publique casi cualquier cosa. Estas sensibilidades
incluso están consagradas en algunas leyes; la estadounidense les da a esas
empresas una amplia inmunidad a que se les someta a un proceso judicial con base
en lo publicado por sus usuarios.
Sin embargo, y con buena razón, los valores absolutistas han
terminado.
En los últimos dos años, las plataformas tecnológicas —ante
presión de legisladores y los medios debido al daño ocasionado por la
desinformación, la propaganda patrocinada por Estados y el acoso— han comenzado
una revisión profunda de sus opiniones acerca de lo que la gente puede decir en
línea y cómo puede decirlo.
A mediados de julio, Facebook anunció un nuevo plan para
eliminar la desinformación que podría causar un daño inminente. WhatsApp, la
subsidiaria de mensajería de Facebook, mencionó que limitará cuán ampliamente
se pueden reenviar los mensajes en el servicio a fin de disminuir los rumores
virales, algunos de los cuales han originado situaciones violentas en países
como India.
Las nuevas políticas forman parte de un cambio más grande.
Los servicios en línea —no solo Facebook, sino también Google, Twitter, Reddit
e incluso aquellos que están lejos de las noticias y la política, como Spotify—
están replanteando su relación con el mundo físico al hacerse una pregunta
básica: ¿dónde comienza y termina nuestra responsabilidad?
Esto es muy importante y las empresas tecnológicas ya se
habían tardado en tomar una postura más firme contra las mentiras y el acoso.
Aun así, mientras forcejean con la cuestión de la responsabilidad y dónde
establecer sus límites respecto a ciertos tipos de contenido, todos deberíamos
prepararnos para que el camino sea bastante accidentado.
Esta es la razón: una estrategia en la que la intervención es
casi nula ha sido central para el crecimiento de las plataformas tecnológicas,
ya que les permite tener una escala mundial sin asumir los costos sociales de
su ascenso. No obstante, como su influencia es tan grande —Facebook por sí solo
tiene más de dos mil millones de usuarios— y han penetrado tan profundamente en
nuestras vidas, una estrategia de mayor involucramiento para vigilar el
contenido podría propagarse en todo el mundo y con ello alterar las políticas
públicas, a los medios y a casi todo en la sociedad.
Es decir, podría tener el efecto opuesto a lo que los
críticos de estas empresas buscan: con una mejor supervisión de su propio
contenido podría, de hecho, aumentar el poder que tienen las plataformas
tecnológicas para moldear nuestras vidas.
Resulta bastante bueno que los gigantes tecnológicos por fin
se estén percatando de sus efectos en el mundo real, pero hay un enorme margen
de error en su enfoque para revisar el contenido. Es muy probable que muchas
cosas salgan mal —ya sea por vigilar demasiado o muy poco— y tal vez no puedan
explicar de manera satisfactoria por qué tomaron ciertas decisiones, lo cual
levantará sospechas en todos los bandos.
Recientemente llamé la atención a Facebook por la
complejidad de sus políticas de contenido más nuevas, que enaltecen las
virtudes de la libre expresión a la vez que le dan mucho margen a la empresa
para eliminar o reducir la distribución de ciertas publicaciones por una gran
variedad de motivos.
Las políticas de Facebook no son las únicas difíciles de
entender; las reglas de Twitter también provocan el mismo mareo.
Tras hablar con estas y otras empresas, entendí por qué nos
cuesta trabajo entender los esfuerzos que hacen para resolver sus problemas.
Las plataformas tecnológicas dicen que no quieren ser imprudentes: todas buscan
la contribución de muchas partes involucradas sobre cómo desarrollar políticas
de contenido. También les preocupa enormemente la libre expresión y todavía se
inclinan a darle a la gente la libertad de publicar lo que quiera.
En lugar de prohibir el discurso, suelen tratar de mitigar
sus efectos negativos con metodologías técnicas, como contener la divulgación
de ciertos mensajes al alterar los algoritmos de recomendación o al imponer
límites a su diseminación viral.
“Por algo hay políticas matizadas”, comentó Monika Bickert,
directora de políticas de Facebook. “Parte de esto es muy complicado y, cuando
estas políticas se diseñan, no hay un grupo de gente sentada en Menlo Park,
California, diciendo dónde pensamos que debería estar el límite”.
Bickert comentó que ha organizado reuniones frecuentes con
diversos expertos para debatir cómo es que Facebook debería establecer los
límites en un sinfín de discursos. En general, la empresa elimina contenido que
es ilegal, peligroso, fraudulento o que es falso o basura. No obstante, en el
caso de áreas que son más difusas, como la desinformación, adopta un enfoque
distinto.
“Reducimos la distribución de información que es inexacta e
informamos a la gente con más contexto y perspectiva”, comentó Tessa Lyons,
gerente de producto que encabeza el esfuerzo de Facebook para frenar la
desinformación en el muro de Noticias (News Feed).
Para ello, Facebook se ha asociado con decenas de
organizaciones de todo el mundo que verifican información. Así limita la
diseminación de noticias que sean consideradas falsas, al mostrar esas
publicaciones con menor frecuencia en los muros de Noticias de los usuarios y
también muestra artículos más veraces como alternativa a los que no son
exactos.
Andrew McLaughlin, exdirector de políticas en Google y quien
ahora dirige una incubadora cuya finalidad es construir tecnología para
movimientos políticos progresistas, comentó que le impresionaban los esfuerzos
de Facebook.
“Creo que hablo por un grupo de personas que alguna vez se
enorgullecieron bastante de la solidez de nuestro compromiso con la libertad de
expresión en las plataformas de internet”, dijo. “No obstante, mis posturas
ciertamente han cambiado tras un crisol de experiencias: ahora me siento feliz
de que las plataformas como Facebook concentren sus recursos y energía en
[combatir] propaganda maliciosa y manipuladora”. (McLaughlin también fue previamente
consultor de Facebook, pero ya no trabaja para esa empresa).
Sin embargo, yo soy menos optimista, porque todavía no
sabemos muchas cosas sobre estas políticas y sus efectos. Facebook es una
corporación con fines de lucro que, tanto por motivos regulatorios como de
imagen de marca, quiere parecer políticamente imparcial. No obstante, si
determina que algunos actores políticos —digamos la extrema derecha en Estados
Unidos o los dictadores autoritarios en otras partes— han impulsado más
noticias falsas que sus opositores, ¿cómo podemos confiar en que hará algo al
respecto?
La misma sospecha aplica a otras plataformas: aunque el
presidente estadounidense, Donald Trump, probablemente viole las políticas de
contenido de Twitter, se le ha permitido seguir publicando en la plataforma.
Aunque imaginen la indignación si lo bloquearan.
Esto nos lleva al tema más amplio de la transparencia.
Aunque las políticas escritas de Facebook son claras, la manera en que las
aplica no lo es tanto. Poco se sabe, por ejemplo, sobre el ejército de
trabajadores bajo contrato que la empresa emplea para revisar contenido
peligroso; es decir, la gente que realmente toma las decisiones (Facebook dice
que se les capacita extensamente y que sus acciones son auditadas). Además, dado
que casi todo en Facebook es personalizado y que muchas de sus reglas se
aplican a través de ajustes leves en su algoritmo de clasificación, el efecto
general de sus políticas de contenido puede ser muy difícil de determinar para
los externos.
Este problema también se da en otras plataformas. Twitter,
por ejemplo, tiene un filtro de contenido que regula qué tuits se muestran en
tu línea de tiempo y en resultados de búsquedas. No obstante, las prioridades
del filtro son necesariamente secretas, porque si Twitter hace público qué
indicadores busca para clasificar los tuits, la gente buscaría la forma de
burlarlos.
“La gente trata de burlar todos los sistemas que hay”, me
dijo David Gasca, gerente de producto de Twitter.
Todos estos problemas tienen solución. Las compañías
tecnológicas están gastando enormes cantidades de dinero para mejorar y con el
tiempo bien podrían tener ideas innovadoras para vigilar el contenido. Por
ejemplo, la decisión reciente de Facebook de liberar sus datos a un grupo de
investigadores académicos podría permitirnos determinar algún día, de manera
empírica, qué efectos están teniendo sus políticas de contenido en el mundo.
A pesar de todo eso, estamos ante una encrucijada. Incluso
si están trabajando con externos para crear estas políticas, cuanto más hagan
estas empresas para moderar qué sucede en sus páginas, más importante se
vuelven sus políticas para el discurso mundial.
A mucha gente le preocupa que Mark Zuckerberg ya sea
demasiado poderoso. El peligro es que todavía no hemos visto nada.
Fuente: The New York Times
No hay comentarios:
Publicar un comentario