Por años, los contenidos y las conversaciones publicados en las redes sociales se han convertido en un punto álgido del debate entre empresas de tecnología y gobiernos. Si bien las redes sociales son entendidas como espacios en donde todos los usuarios tienen voz, esta libertad se ha prestado para escenarios llenos de controversia. 

No es raro encontrar, por ejemplo, todo tipo de grupos privados en dichas redes organizados frente a temas que tienen un profundo impacto en el mundo. Un ejemplo sencillo son los grupos contra las vacunas, tan prevalentes en las redes sociales que se han vuelto un dolor de cabeza y han debido ser moderados de forma particularmente fuerte.

El debate encontró un punto crucial el pasado 6 de enero, la fecha cuando seguidores del entonces Presidente de los Estados Unidos, Donald Trump, irrumpieron con violencia en el Capitolio de los Estados Unidos. Allí se encontraban los miembros del Congreso, quienes debieron ser evacuados inmediatamente. Frente a la respuesta de Trump (los detalles están más adelante en este mismo texto), la decisión fue a celebrada y denunciada a la vez, pero esto fue apenas la punta del iceberg.

Explicando el caso Trump –y todos los que se pueden extrapolar–

Aunque el caso de la suspensión de Donald Trump ha sido uno sobre los que más se ha hablado, ciertamente no ha sido el único. Sin embargo, muchas peculiaridades se pueden extrapolar a otras situaciones y se pueden entender mejor cuando se explica el contexto político: a lo largo de toda su campaña política, Donald Trump arremetió constantemente contra la Sección 230. Dicha ley, en pocas palabras, permite que las plataformas digitales no sean responsables legalmente por el contenido que sus usuarios puedan publicar, sino que cada usuario es responsable por él.

Aunque en Colombia no existe un equivalente directo a la Sección 230, hay un historial de casos en los que la Corte Constitucional afirma que «se propende por dotar a los intermediarios de Internet de cierta inmunidad, de tal forma que no se les haga responsables por los contenidos y actividades que los usuarios del sistema desarrollan». Entre dichos casos se encuentran las sentencias T-277 de 2015 y T-155 de 2019.

El concepto de la corte, a su vez, está basado en los artículos expuestos por la Organización de Estados Americanos que se refieren a la libertad de expresión e Internet, y que explican que «ninguna persona que ofrezca únicamente servicios técnicos de Internet como acceso, búsquedas o conservación de información en la memoria caché deberá ser responsable por contenidos generados por terceros y que se difundan a través de estos servicios».

¿Qué es la Sección 230 de los Estados Unidos?

(1) Tratamiento del editor o hablante: Ningún proveedor o usuario de un servicio informático interactivo será tratado como el editor o el orador de cualquier información proporcionada por otro proveedor de contenidos de información.

(2) Responsabilidad civil: Ningún proveedor o usuario de un servicio informático interactivo podrá ser considerado responsable por: (A) cualquier acción tomada voluntariamente y de buena fe para restringir el acceso o la disponibilidad de material que el proveedor o usuario considere obsceno, lascivo, sucio, excesivamente violento, acosador o de cualquier otro modo objetable, independientemente de que dicho material esté constitucionalmente protegido; o (B) cualquier acción realizada para permitir o poner a disposición de los proveedores de contenidos de información u otros los medios técnicos para restringir el acceso al material descrito en el párrafo (1).

Puede consultar la norma completa en este enlace.

Las plataformas digitales también tiene libertad de elegir cómo moderan el contenido, con diferentes reglas que son aceptadas por los usuarios al momento de registrarse. El expresidente Donald Trump ha pedido por años que plataformas como Twitter y Facebook tengan más responsabilidad por cómo se aplican estas reglas de moderación. Twitter, por ejemplo, marcó como ‘información falsa’ varios tuits en los que Trump habla sobre la actual pandemia.

Por otra parte, un estudio publicado por el Pew Research Center mostró que la mayoría de estadounidenses siente que las redes sociales están censurando las posturas políticas de bastante gente, aunque el sentimiento es más prevalente en la derecha política.

Esta dinámica entre Trump y el dilema de las redes sociales se intensificó con la carrera presidencial, y tendría un pico la semana del 5 de noviembre de 2020. Ese día se empezó el conteo de votos que finalmente le daría la victoria al actual presidente, Joe Biden, pero que Trump repetidamente denunció como un fraude electoral y que, incluso hasta el día de hoy, se niega a admitir.

Twitter y Facebook decidieron marcar los tuits de Trump relacionados como ‘información falsa’, lo que generó rabia en él y entre sus seguidores. De nuevo, el expresidente alegó que esta demarcación sistemática estaba amparada por la Sección 230 y que constituía una amenaza contra la libertad. 

Por gran parte de noviembre y diciembre, Trump continuó con sus denuncias de fraude al sistema electoral estadounidense. Esto tendría su cumbre el 6 de enero, día en el que el congreso de los Estados Unidos ratificó los votos de cada estado y el vicepresidente Mike Pence pronunció a Joe Biden como el próximo presidente.

Capitolio de los Estados Unidos. Imagen: Don Shin en Unsplash

Ese mismo 6 de enero, la sesión del congreso se vio interrumpida cuando seguidores del presidente Trump –convocados a una protesta pacífica en la Casa Blanca por el mismo presidente– rompieron los anillos de seguridad y entraron a la fuerza al Capitolio. Los seguidores ocuparon el congreso por varias horas antes de ser removidos por el ejército. El saldo fueron 4 muertos, decenas de congresistas corriendo por sus vidas y una democracia en muletas. 

Durante todo el evento, la cuenta del expresidente Trump se limitó a publicar un video en el que invitaba a los invasores a regresar a casa, afirmaba que «los aman» y que buscarían la victoria por otros medios. Trump alimentó más el fuego cuando tuiteó: “Estas son las cosas y los eventos que pasan cuando una victoria electoral sagrada y aplastante es despojada de forma tan poco ceremoniosa”.

Frente a la negativa por parte de Trump de rechazar enfáticamente estos actos, Twitter y Facebook decidieron suspender las cuentas de Trump ya que, según los responsables de las redes, el entonces presidente estaba incitando a la violencia. La suspensión de Trump, entonces, está fuertemente sustentada por los eventos del 6 de enero, pero con ella también han venido las voces que protestan sobre un abuso de fuerza por parte de las plataformas y las acusan de censura. 

¿Censura en las redes sociales?

Tan pronto Twitter y Facebook anunciaron la suspensión de las cuentas de Donald Trump, un efecto dominó provocó que otras plataformas hicieran lo mismo. YouTube, Shopify e incluso Twitch también suspendieron las cuentas del entonces presidente, silenciando así a uno de los mandatarios más propensos a utilizar las redes sociales para comunicarse con sus seguidores. 

Los gritos de censura no se hicieron esperar. “La censura en principio se predica de los Estados, pero hay condiciones en las que un privado puede incurrir en esa acción, todo depende –le explicó a Impacto TIC Carolina Botero, directora de la Fundación Karisma–. Sin embargo, en el caso de Trump hay argumentos que podrían justificar que la discusión no viene a cuento”.

Por más que se mire simplemente como un usuario de las redes, en ese momento Trump era el presidente de Estados Unidos. Esto quiere decir que contaba con bastantes medios para poder comunicar sus opiniones, usando mecanismos como ruedas de prensa u otras cuentas oficiales de la Casa Blanca. 

De la misma forma, el actual juicio político que afronta Trump en el Senado –llamado impeachment y que se traduce literalmente como destitución– está fundamentado en la incitación a la violencia, que rompe por completo la leyes; no sólo de las redes sociales, sino también de la ley estadounidense. “Ahora, si la suspensión [en las redes] es permanente… quizá habría que reabrir el debate”, agrega Carolina Botero.

Aunque el caso Trump ha sido el más sonado de los últímos tiempos, ciertamente no es el único. En Colombia, hace apenas un par de semanas, Twitter y Facebook suspendieron las cuentas de Iván Marquez, Jesús Santrich y de @SMarquetalia. Según las plataformas, estas cuentas estaban siendo usadas para promover la violencia, y la suspensión viene después de quejas por parte de la Policía Nacional. Antes de la suspensión, Iván Márquez compartió un video en el que, con un fúsil en el hombro, llamó a una coalición política.

De la misma forma, el expresidente Álvaro Uribe fue suspendido por Twitter en 2019, durante las jornadas de protesta ciudadana, por publicar información confidencial de los protestantes y sin consentimiento de ellos. Como respuesta, Uribe publicó un video en Facebook en el que comentó que esperaba que le restituyeran la cuenta. Es decir que, en términos de sanciones, la redes sociales han reforzado y defendido sus políticas de uso desde hace varios años.

Pese a esto, para muchas personas, las redes sociales están rompiendo lo que en Estados Unidos se conoce como la Primera Enmienda, que tiene que ver con la libertad de expresión y que acá en Colombia está reconocida en el Artículo 20 de la Constitución. Sin embargo, estas garantías aplican solamente para espacios públicos, y no podemos olvidar que las redes sociales, aunque parezcan públicas, son en realidad espacios privados.

La Primera Enmienda y el Artículo 20 

Artículo 20 de la Constitución de Colombia: Se garantiza a toda persona la libertad de expresar y difundir su pensamiento y opiniones, la de informar y recibir información veraz e imparcial, y la de fundar medios masivos de comunicación. Estos son libres y tienen responsabilidad social. Se garantiza el derecho a la rectificación en condiciones de equidad. No habrá censura.

Primera Enmienda a la Constitución de Estados Unidos: El Congreso no podrá hacer ninguna ley con respecto al establecimiento de la religión, ni prohibiendo la libre práctica de la misma; ni limitando la libertad de expresión, ni de prensa; ni el derecho a la asamblea pacífica de las personas, ni de solicitar al gobierno una compensación de agravios.

Son espacios de privados que funcionan como espacios públicos, como lo son los centros comerciales por, ejemplo”, nos recuerda la directora de la Fundación Karisma. Pese a esto, es cierto que incluso siendo espacios privados estas plataformas no pueden incumplir las leyes de los país en los que operan. La discriminación frente a la orientación sexual o la raza está prohibida por la Constitución de Colombia, y ningún privado puede romper estos estatutos. 

Facebook compartió con Impacto TIC un listado de sanciones que fueron aplicadas a la cuenta de Donald Trump a lo largo del año pasado. En este podemos encontrar que Facebook, al igual que Twitter, ha eliminado por lo menos 6 publicaciones del expresidente que rompieron los términos y condiciones. 

Facebook eliminó anuncios de la campaña de Trump sobre inmigrantes y coronavirus que aseguraban (sin base científica ni pruebas) que aceptar refugiados del extranjero podría aumentar los riesgos de contraer coronavirus a los ciudadanos norteamericanos”, cita como ejemplo la información provista por la plataforma.

Lo feo: ¿quién regula a los reguladores?

Y aunque el caso de Trump ha sido uno de los más comentados, lo cierto es que esta acción también puede llegar a inquietar a los usuarios corrientes. Independientemente de su posición política, las plataformas actuaron unilateralmente para silenciar a Trump. Aunque su estatus como político le garantiza más medios que a una persona común, ¿qué pasa cuando son estas personas del común las que son silenciadas?

Ante la suspensión masiva de cuentas en Twitter y Facebook, muchos activistas de la derecha estadounidense migraron a Parler, una aplicación parecida a Twitter, pero enfocada –según ellos– a la libertad de expresión. Frente a esto, Google y Apple prohibieron a Parler en sus tiendas de aplicaciones (Play Store y App Store, respectivamente) mientras que Amazon Web Services terminó su contrato de alojamiento web a la plataforma, unilateralmente.

Las plataformas deben actuar en un marco de legalidad y la discusión del discurso público en foros privados es compleja, la estamos moldeando.

Carolina Botero, Fundación Karisma

Hoy por hoy, Parler ha sido efectivamente borrada de la web, sin posibilidad de ser usada ni en teléfonos ni en computadores. Independientemente de sus contenidos, las acciones unilaterales de Google, Apple y Amazon aplastaron por completo cualquier oportunidad que tuvo Parler. Si alguna vez quisimos ver el poder real de lo que llaman big tech, este es el ejemplo perfecto.     

Angela Merkel, canciller alemana y una de las figuras políticas más opuestas a Donald Trump, señaló que las medidas para prevenir más violencia fueron necesarias, pero vio como problemático que «las cuentas del presidente de los Estados Unidos hayan sido bloqueadas permanentemente».

Este tipo de sanción, según ella, debe estar basada en marcos y entes regulatorios legales, mas no en la gerencia de las redes sociales. Este dilema de las redes sociales llega hasta el mismo fundador de Facebook –Mark Zuckerberg–, quien ha hecho el llamado varias veces para que los entes reguladores de Estados Unidos y del mundo sean más estrictos con los gigantes de tecnología e implementen reglas claras que garanticen el bienestar de sus ciudadanos cuando utilicen plataformas privadas. 

¿Dónde están los gobiernos?

El dilema de la redes sociales es que deben, en muchos casos, implementar nuevas reglas que están basadas en la convivencia, pero no en el marco legal de cada país. En Estados Unidos, por ejemplo, la Primera Enmienda protege la libertad de expresión, pero no menciona nada sobre sus límites y deja abierta la puerta a discursos de odio.

Al mismo tiempo, la Sección 230 vuelve a las plataforma digitales inmunes frente a la ley, lo que esencialmente les permite ejercer sus términos y condiciones llenando vacíos en donde la ley se queda corta. 

Acá en Colombia, el Artículo 20 de la constitución garantiza la libertad de expresión, mientras que el Artículo 13 protege contra la discriminación. Estas son garantías gubernamentales, y las políticas de las redes sociales que funcionan en el país deberían ser un reflejo de este marco legal.

Cuando hablamos de discursos de odio, protección a la discriminación, censura, terminación de servicios, entre muchos otros, las redes sociales necesitan de organismos estatales y legales en los que puedan apoyarse para ejercer una moderación apropiada. En Colombia ha habido proyectos de ley contra los discursos de odio que bien podrían complementar el papel de redes como Facebook y Twitter en el país. 

La discusión tiene muchas aristas, pero es clave que ambas –plataformas digitales y gobiernos– lleguen a una regulación que proteja en conjunto las experiencias en línea de sus ciudadanos.