El pasto más verde: espacio público, jardines vallados y la privatización de la libertad de expresión en internet

contacta     ·     sobre     ·     azar     ·     buchaca     ·     manifiestos    ·   

  • Forma

    La intención, la mirada, la propuesta. Dónde yace lo que parece haber cuajado en un proceso de meditación-acción.

Una repensada a los ecosistemas digitales desde su materialidad, jardines vallados y tecnopolítca a tope. Un texto de Marianne Díaz Hernández que andaba desvinculado en Internet y recupero aquí para darle algo más de vida.
Recupero este texto de Marianne Díaz Hernández de 2012, citado en Dietética Digital y SurSiendo, pero que lamentablemente ya no se encuentra en línea en su enlace original.

Gracias que existe Wayback Machine de archive.org y he recuperado la versión guardada del 24 de marzo de 2018

Edit: Sin saberlo he publicado esto en la noche del 28 al 29 de septiembre, siendo el 28 el Día Internacional del Acceso Universal a la Información. ¿Casualidad? ¡No lo creo!


Las preocupaciones tradicionales de la sociedad civil en torno al ejercicio de la libertad de expresión en línea tienden hacia la tensión entre las acciones de los Estados para restringirla y la defensa correlativa de los derechos humanos. Sin embargo, el rol de los prestadores de servicio en la formulación e implementación de mecanismos regulatorios nos muestra que la gobernanza de internet en materia de libertad de expresión está experimentando cambios importantes (Hintz, 2016); estos cambios, marcados por la transición de responsabilidades administrativas y de políticas públicas de las manos del Estado a los intermediarios privados (DeNardis y Hackl, 2015) alteran la lógica del ejercicio de estos derechos en el espacio digital y requieren nuestra atención.

El discurso en línea ofrece posibilidades incrementadas para la expresión de los ciudadanos; no solo existe ahora una mayor cantidad de contenido generado por los usuarios, abarcando un espectro más amplio, sino que es más fácil encontrarlo e involucrarse con el contenido que nos interesa (Thomson, 2012). Sin embargo, estas formas de expresión no ofrecen las mismas garantías legales que tradicionalmente asociamos a la expresión offline. Independientemente de la importancia social y el carácter público de las actividades que desempeñemos en ellas, las plataformas de redes sociales son espacios de propiedad privada; en palabras de Yochai Blenkler (2006), internet es una “esfera pública construida en base a infraestructura privada”. Aunque algunos gobiernos poseen y controlan parte de la red, en su mayor parte ésta es propiedad de entidades privadas. Esto significa que las relaciones entre los usuarios y las plataformas no están regidas por parámetros de derechos humanos, sino por el derecho privado, de lo que se colige que los propietarios de la infraestructura o plataforma tienen el derecho de excluir, manejar y establecer limitaciones sobre la manera en que otros utilizan su propiedad (Thomson, 2012).

De este modo, nuestro discurso en línea deja de verse regulado por la normativa nacional o internacional que protege nuestros derechos fundamentales y pasa a ser regido por los términos de servicio y políticas de contenido que cada proveedor establezca, mediante las cuales determina qué contenido es aceptable para su plataforma (Leetaru, 2016).

Este esquema, como veremos más adelante, posee características de autorregulación y guarda ciertas similaridades con el modelo autorregulatorio de los medios impresos (Tambini y Leonardi, 2008). No obstante, en el esquema de las redes sociales, los usuarios consienten en renunciar a derechos fundamentales en intercambio por servicios frecuentemente considerados “gratuitos” (MacKinnon, 2013).

Redes sociales y centros comerciales
Así, las redes sociales permiten a las personas involucrarse en el debate público en maneras que son a menudo democráticas, pero hacen esto a través de mecanismos que son propiedad de privados. Este desplazamiento del espacio público por el espacio privado ha sido comparado con el reemplazo de los espacios físicos de carácter público (como plazas y calles) por los centros comerciales, en tanto que la infraestructura privatizada de las redes sociales, al igual que éstas, obedece una lógica comercial (Hintz, 2016). Ahora bien, si estas plataformas están, en la práctica, fungiendo el rol que corresponde a las plazas públicas en el sentido metafórico, ¿cabe esperar entonces que respeten algún tipo de responsabilidad? Pellot (2013) afirma que en efecto, las empresas que administran estas plataformas cumplen el rol de ser canales del discurso público, y que como tales, no podemos considerarlas espacios privados en sentido estricto.

Es siguiendo una lógica similar que la Suprema Corte estadounidense extendió (en 1946, Marsh v. Alabama) las protecciones equivalentes a la libertad de expresión a los centros comerciales, bajo el concepto de “equivalencia funcional”. Así, se argumentaba que estos espacios habían desplazado a las plazas públicas como espacios cívicos, y que en consecuencia, las actividades públicas propias de éstos (en específico, las actividades políticas y de protesta) debían ser permitidas en los centros comerciales independientemente de su carácter privado. Sin embargo, esta doctrina fue revertida posteriormente. Se entiende que la esfera pública puede, en efecto, tener lugar en espacios públicos tanto como en espacios privados, no obstante, se sostiene que, aunque los actores públicos (el Estado) deben garantizar la existencia de espacios públicos donde la libertad de expresión sea disponible a todos, no cabe esperar que los actores privados garanticen esta libertad de la misma manera (Chiodelli y Moroni, 2015).

Cabe, sin embargo, una última analogía entre el centro comercial y la red social. En 2006, sostenía Low en relación con la ciudad de Nueva York luego de los atentados del 11 de septiembre de 2001 que el acto de cerrar un espacio público con la finalidad de rediseñarlo y abrirlo nuevamente bajo lógicas de vigilancia intensiva era una práctica precursora de la privatización del espacio público, en el sentido de que tal vigilancia erosiona la relación entre el espacio y el uso que de éste pueden hacer las personas. En la actualidad, los mecanismos de vigilancia específica han sido reemplazados por la recolección y procesamiento continuo de datos sobre diversas áreas de la actividad humana (Hintz, 2016), y las plataformas de redes sociales son una pieza fundamental en esta mecánica, dada la enorme cantidad de información que recogen y comparten con entidades externas. Por un lado, es intrínseca a su modelo de negocios la práctica de compartir datos con terceros para maximizar las ganancias por publicidad; por otro lado, es habitual compartir datos sobre sus usuarios con los gobiernos que así lo requieren (De Nardis y Hackl, 2015).

Mientras más, mejor
En la medida en que la recolección de datos de los usuarios es central a los modelos de negocio de estas plataformas, es vital para ellas que nos sintamos libres al participar en sus comunidades (Cagle, 2015), dado que esta sensación de libertad facilita el consentimiento voluntario a la recolección y monetización de los datos (DeNardis y Hackl, 2015). Este consentimiento es dado tras la aceptación de términos y condiciones establecidas por estas plataformas para determinar qué conductas y qué contenidos son aceptables, normas que se convierten así en el código de conducta para pertenecer a estas “comunidades” (Pellot, 2013).

Así, el principal valor en el potencial de pertenecer a una de estas plataformas no se encuentra en las características técnicas de la plataforma misma, sino en la cantidad de miembros que ésta contiene (Thomson, 2012). Tal como nos dice Johnson (2016), redes sociales como Facebook funcionan en base a una “teoría agregacional” de la libertad de expresión, bajo la cual el principal énfasis está en el agregado de las voces en una determinada plataforma, y la única manera de mantener un agregado alto de esas voces es convencer a los usuarios de que las reglas de la comunidad permiten promover la expresión y prevenir el daño causado por el contenido considerado “nocivo” de manera simultánea. Así, la política de contenidos de una plataforma de este tipo no está dictada por el carácter legal o ilegal del contenido publicado, sino por las fuerzas del mercado, y la remoción de contenido es causada por el deseo de evitar la pérdida de una masa crítica de usuarios (Johnson, 2016).

En consecuencia, aunque desde el punto de vista técnico, la plataforma es “neutral”, en la práctica quienes la administran toman decisiones todos los días con respecto a qué contenido se permite y cuál debe removerse (DeNardis y Heckl, 2015), decisiones que obedecen lógicas de mercado, favoreciendo las opiniones y expresiones que son populares y afectando expresiones impopulares que, sin embargo, estarían protegidas bajo los parámetros de la libertad de expresión (Thomson, 2012). Este balance explica las marcadas diferencias entre el contenido considerado aceptable en plataformas como Facebook o Instagram, y el que es permitido, por ejemplo, en Reddit o 4chan: las comunidades formadas en torno a distintos servicios aceptan, toleran e incluso celebran diferentes clases de conductas, y el comportamiento que puede ser considerado destructivo en ciertas comunidades no lo es en otras (Chandrasekharan et al., 2017). Tanto para el usuario en busca de una audiencia como para la empresa que busca preservar una masa crítica de usuarios, entender la lógica del mercado al que se dirige es esencial en este caso.

Es en este sentido que Thomson (2012) nos habla del concepto de “lock-in”: si bien el usuario acepta voluntariamente los términos de servicio que la plataforma establece, y es teóricamente libre de migrar a otra plataforma cuando así lo desee, la mayoría de los usuarios no poseen el dinero y las capacidades técnicas para elegir otros mecanismos, y algunos OSPs son tan dominantes en el mercado que no existe una alternativa satisfactoria, es decir, la elección de un usuario de migrar a otro servicio, o la decisión de la empresa de negar servicio a un determinado usuario, si bien no imposibilita el acceso de éste a la difusión de su contenido sí lo hace suficientemente inconveniente para ir en detrimento del impacto que podría haber alcanzado.

Por un lado, los parámetros de lo que se considera contenido aceptable están sujetos a ser cambiados en respuesta a influencias por parte de los usuarios y del Estado (Hintz, 2016), lo que no ofrece un piso estable para que los usuarios estén seguros de que su contenido no infringe ninguna norma, pero además, lleva a las compañías a restringir más contenido del que usualmente sería necesario por exigencias de ley en un determinado país o contexto (Pellot, 2013).

Es así como encontramos que compañías como Facebook terminan siendo mucho más conservadoras que la propia ley, y su temor a represalias (de los usuarios, de sus accionistas y del Estado) se convierte en presión de vigilarse a sí mismas (Hintz, 2016). Facebook ha sido denunciado por censurar imágenes de mujeres con sobrepeso, amamantando, imágenes de pezones o relacionadas con la menstruación, e incluso campañas de concienciación contra el cáncer (York, 2016).

Responsabilidad social corporativa
Si bien está claro que la principal responsabilidad de una empresa es ante sus accionistas (Pellot, 2013), Thomson (2012) y Johnson (2016) nos hablan de “responsabilidad social corporativa” como explicación de las decisiones de los intermediarios en redes sociales. La responsabilidad social corporativa es

un esfuerzo concertado por parte del equipo de relaciones públicas de una empresa para, al menos, dar la apariencia de que (1) la empresa está preocupada por las consecuencias sociales de sus prácticas de negocio, y (2) la empresa está tomando medidas activas para minimizar las consecuencias negativas y maximizar las consecuencias positivas de sus prácticas (Johnson, 2016).

Los intermediarios de plataformas que administran contenido generado por los usuarios necesitan estar en la capacidad de señalar a sus políticas, previamente justificadas, para justificar las decisiones que toman, en la medida en que estas decisiones “fortalecen los atributos positivos de la red y remueven los negativos”. En gran medida, su capacidad para mantener la homeóstasis de la red que administran es el punto principal del valor que ofrecen a sus usuarios finales, en tanto curadores de la información que administran. Yoo (2009) nos dice que, dado que el usuario final no está en capacidad de procesar la avalancha de información que se le presenta cotidianamente en internet, la manera en que los intermediarios seleccionan y presentan el contenido constituye la fuente primaria del valor que ofrecen, y es así una “voz editorial” distinguible, similar a la de un medio de comunicación tradicional.

En este sentido, es cierto que las redes sociales contemporáneas administran jardines vallados de contenido que pretenden lograr que sus usuarios no salgan del territorio que administran y se aventuren (¿se pierdan?) en la selva de la información (Leetaru, 2016). Sin embargo, asimilar su rol al de un medio de comunicación tradicional sería un error. En las redes sociales, los usuarios intervienen para determinar qué contenido encuentran, si bien el rol positivo de esta característica es discutible, por cuanto contribuye a generar cámaras de eco que refuerzan las creencias previas de los usuarios (Thomson, 2012). Es cierto, también, que la mayoría de las compañías de redes sociales adaptan los feeds de contenido de acuerdo con los intereses y preferencias del usuario pero incluso sin intervención directa de éste, lo que a efectos prácticos constituye una manipulación del contenido que los usuarios pueden alcanzar a ver (Hintz, 2016). Es inevitable considerar, entonces, que la función de intermediación de contenido que cumplen las plataformas de redes sociales interviene directamente en la interacción entre los usuarios y varias condiciones de la democracia: la forma en que las personas reciben las noticias, la manera en que articulan y asocian esta información, el acceso al conocimiento, y los espacios para deliberar e interactuar con otras personas sobre asuntos de importancia pública (DeNardis y Hackl, 2015).

Autorregulación
El modelo norteamericano parece ver la autorregulación como una alternativa menos peligrosa, por cuanto aleja la potestad de regular contenido de las manos del Estado (Tambini, Leonardi y Marsden, 2008). Nos dice Yoo (2009) que es preferible permitir a la audiencia elegir entre distintos intermediarios que someterse a la regulación gubernamental, por cuanto esta última presenta un riesgo mayor a la libre expresión. Sin embargo, es pertinente puntualizar que esta elección, como hemos mencionado antes, no es plenamente libre, y que los usuarios no se encuentran en igualdad de condiciones frente a las empresas en el momento de ingresar en estos contratos; por el contrario, su capacidad y posibilidades de apelar las decisiones que éstas toman son, en el mejor de los casos, limitadas (Leetaru, 2016).
Así, parece evidente que la autorregulación, por sí misma, es no solo insuficiente sino indeseable. Permitir que la “regulación invisible” del mercado determine cuáles ideas deben ser permitidas es detrimental y peligroso para los derechos humanos y para la democracia, que exige, por definición, la máxima pluralidad posible en las ideas.

Si bien el escenario ideal puede parecer requerir a los OSPs proteger la libertad de expresión de los usuarios, en el contexto legal actual tal intento sería inútil (Thomson, 2012). En el pasado, la ejecución de campañas y peticiones contra plataformas de redes sociales por parte de la sociedad civil han tenido éxito en lograr que alteren sus términos de servicio y sus políticas de contenido (Hintz, 2016), sin embargo, cabe puntualizar que esto no es sino otra forma de recurrir a las fuerzas del mercado para presionar a las empresas. Las opiniones y expresiones impopulares difícilmente lograrán causar la indignación pública requerida para que las plataformas respondan de manera positiva, del mismo modo que raramente logrará un usuario con poca influencia generar el cambio que se requiere. Cabe pensar, entonces, que es requerido el fortalecimiento de un modelo de co-regulación, donde las decisiones tomadas por las plataformas sean revisables por las cortes más allá de la validez de un contrato entre las partes, o en el que las limitaciones acordadas en los términos de uso sean revisadas por las autoridades de acuerdo con parámetros sustantivos de derechos humanos (Tambini, Leonardi y Marsden, 2008).

Por otra parte, quienes hacemos uso de los espacios proporcionados por estas plataformas quizás queramos reconsiderar la negociación de la cual formamos parte, en la que entregamos parte de nuestra autonomía como individuos y una gran cantidad de nuestros datos personales a cambio del servicio prestado, a cambio de formar parte de una comunidad de pares. Es cierto que el acceso a los medios de comunicación tiene una larga historia de control por parte de privados (Thomson, 2012), sin embargo, la llegada y la masificación del acceso a internet debía, en teoría, ofrecer la posibilidad de saltarnos al intermediario y de acercar a las personas el poder de comunicarse; sin embargo, aún seguimos dejando la administración de nuestras libertades fundamentales al arbitrio de actores privados. Como sociedad, la relación que tengamos en los años venideros con la información que producimos y que consumimos juega un rol esencial no solo en nuestra autodeterminación y nuestro desarrollo como individuos, sino en las decisiones, particulares y colectivas, que tomemos en el ejercicio de nuestra ciudadanía.

Bibliografía

Benkler, Y. (2006). The wealth of networks: How social production transforms markets and freedom. Yale University Press.

Chandrasekharan, E., Pavalanathan, U., Srinivasan, A., Glynn, A., Eisenstein, J., y Gilbert, E. (2017). You Can’t Stay Here: The Efficacy of Reddit’s 2015 Ban Examined Through Hate Speech. Proc. ACM Hum.-Comput. Interact. 1, 2, Article 31 (November 2017), 22 páginas.

Cagle, S. (2015). “No, you don’t have free speech online”. 10 de junio de 2015, Pacific Standard. Consultado en: https://psmag.com/environment/chuck-johnson-is-a-massive-baby-who-doesnt-know-how-to-read-service-agreements

Chiodelli, F., y Moroni, S. (2015). Do malls contribute to the privatisation of public space and the erosion of the public sphere? Reconsidering the role of shopping centres. City, Culture and Society, 6(1), 35-42.

DeNardis, L., y Hackl, A. M. (2015). Internet governance by social media platforms. Telecommunications Policy, 39(9), 761-770.

Hintz, A. (2016). Restricting digital sites of dissent: commercial social media and free expression. Critical Discourse Studies, 13(3), 325-340.

Johnson, B. J. (2016). Facebook’s Free Speech Balancing Act: Corporate Social Responsibility and Norms of Online Discourse. U. Balt. J. Media L. & Ethics, 5, 19.

Leetaru, K. (2016). Has Social Media Killed Free Speech? Forbes, Oct. 31, 2016. Consultado en: https://www.forbes.com/sites/kalevleetaru/2016/10/31/has-social-media-killed-free-speech/#227d2ff146b1

Low, S. M. (2006). The erosion of public space and the public realm: paranoia, surveillance and privatization in New York City. City & Society, 18(1), 43-49.

MacKinnon, R. (2013). Consent of the networked: The worldwide struggle for Internet freedom. Basic Books (AZ).

Pellot, B. (2013). Private lives, public space. Open Democracy, 13 Marzo 2013. Consultado en https://www.opendemocracy.net/brian-pellot/private-lives-public-space

Tambini, D. y Leonardi, D. y Marsden, C. (2008) The privatisation of censorship: self regulation and freedom of expression. In: Tambini, Damian and Leonardi, Danilo and Marsden, Chris, Codifying cyberspace: communications self-regulation in the age of internet convergence. Routledge / UCL Press, Abingdon, UK., pp 269-289. ISBN 9781844721443

The Economist, “Lost in the splinternet”, 5 de noviembre de 2016. Consultado en: https://www.economist.com/news/international/21709531-left-unchecked-growing-maze-barriers-internet-will-damage-economies-and

Thomson, S. (2012). Protecting Legitimate Speech Online: Does the Net work?. LLB (Hons) Dissertation, University of Otago.

Yoo, C. S. (2009). Free Speech and the Myth of the Internet as an Unintermediated Experience. Geo. Wash. L. Rev., 78, 697.

York, J. (2006). A complete guide to all the things Facebook censors hate most. Quarz, 29 de junio de 2016. Consultado en https://qz.com/719905/a-complete-guide-to-all-the-things-facebook-censors-hate-most/

Hagamos de esto una conversación

Deja un comentario

blogroll

Licencia de producción de pares excepto en lo que no sea de mi puño y bit.

Descubre más desde Comunicación Abierta

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo