Que Donad Trump detesta a la mayoría de las grandes compañías tecnológicas es algo que todo el mundo tiene medianamente claro. Que su actividad en ellas le ha facilitado llegar al poder en Estados Unidos, también. En cualquier caso, el pasado jueves el presidente presentó una orden ejecutiva en la que prometió acabar con "las 26 palabras que crearon internet" e impuso las 13 palabras que inician la posible censura en redes sociales: "Online platforms are engaging in selective censorship that is harming our national discourse" ("Las plataformas 'online' están participando en una censura selectiva que está perjudicando nuestro discurso nacional").
Trump se ha comprometido a modificar una parte de la Ley de Decencia en las Comunicaciones (Communications Decency Act), concretamente el artículo 230, que tradicionalmente se ha considerado el salvavidas de gran parte de las plataformas de internet, ya que no las considera responsables legales del contenido que publican los usuarios a dichas plataformas.
La polémica ha llegado tras un tuit de Trump que Twitter clasificó como un contenido que "glorifica la violencia". La intención de Trump con su nueva normativa es que las redes sociales no puedan hacer ese tipo de cosas, ya que, según sus propias palabras, "cuando las grandes y poderosas compañías de redes sociales censuran las opiniones con las que no están de acuerdo ejercen un poder peligroso". Twitter asegura que el presidente quiere aplicar "un enfoque reaccionario y politizado" a la ley, Facebook le acusa de "censurar las redes sociales" y Google considera que la nueva normativa "dañaría la economía de Estados Unidos y su liderazgo global en la libertad de internet".
Mark Zuckerberg se distanció de Twitter, loque se ve como un acercamiento al gobierno
¿Qué pasará ahora con Twitter, Facebook...?
Si Trump cumple su amenaza a través del nuevo texto que se ha propuesto, las plataformas de internet empezarían a ser responsables del contenido que cualquier persona publica en ellas. ¿Qué significa esto? Para entenderlo hay que analizar dos términos clave en los que la nueva normativa aplicaría severas diferencias:
- Plataforma. Una plataforma como tal será, según la reforma que pretende aplicar el Gobierno de Estados Unidos, un espacio web en el que los usuarios publican contenido sin que la empresa propietaria intervenga sobre ninguna publicación. A día de hoy Twitter, Facebook o Youtube son consideradas plataformas, pero ejercen moderación, así que con la nueva normativa cambiaría todo: para seguir siendo plataformas deberían dejar que cada cual publique lo que quiera (aunque sea objetivamente delictivo o reciba denuncias masivas de otros usuarios) y no intervenir, clasificar ni borrar ningún contenido.
- Publicador/editor. Un publicador o editor es todo aquel que, de manera general, publica contenido. A día de hoy se considera editor a un medio de comunicación o a cualquier persona que publique algo en internet. Con la nueva normativa, sin embargo, si Facebook, Twitter o Youtube quieren moderar los contenidos que alojan deberán ser considerados editores. En ese caso, perderán su protección legal sobre lo que otros publiquen y deberán someterse a la Comisión Federal de Comercio (FCC), que recopilará las quejas de los usuarios sobre la presunta parcialidad de dichas redes sociales.
Youtube sería otra de las empresas perjudicadas si Trump continúa con su enfrentamiento
En otras palabras. Imagínate que eres usuario de Twitter y Facebook y quieres publicar en tu muro un comentario que muchos considerarían, por ejemplo, racista. Con la normativa que pretende aplicar Trump, si Twitter o Facebook quieren ser consideradas plataformas deberán dejarte publicar cualquier contenido, por ofensivo, incitador al odio o ilegal que fuera. En caso de que quieran moderar lo que escribas, deberán catalogarse como publicadores/editores, en cuyo caso deberán responder ante cualquier cosa que tú hayas escrito.
¿Y qué van a hacer las redes sociales ante esta potencial amenaza? Por el momento, no mucho. La mayoría por ahora mantienen sus quejas a Trump, aunque lo cierto es que no se ponen de acuerdo entre ellas. De hecho el CEO de Facebook, Mark Zuckerberg, ni siquiera está de acuerdo con lo que hizo Twitter al marcar un tuit del presidente como posible 'glorificador de la violencia': "Tenemos una política diferente a la de Twitter. Creo que Facebook no debería ser el árbitro de la verdad de todo lo que la gente dice en internet. Las compañías privadas probablemente no deberían estar en la posición de hacer eso", aseguró.
¿Saldrá adelante la orden? No parece, pero...
Ahora la pregunta es evidente: ¿podrá Trump sacar adelante su propuesta? No parece que vaya a ser sencillo. Varios expertos legales aseguran que "Trump no tiene poder para regular ni tumbar a las compañías de redes sociales simplemente porque esté en desacuerdo con ellas", un criterio al que se suman los expertos en derecho tecnológico, que consideran que algunos preceptos de la orden ejecutiva del Gobierno de Estados Unidos no son del todo legales.
Sin embargo, no todo sería positivo para las redes sociales, que desde que Trump se convirtió en presidente mantienen una discusión constante con el Gobierno de Estados Unidos, y este hecho podría tensar aún más la cuerda. De hecho, la Casa Blanca está estudiando la posibilidad de denunciar a las redes sociales que, según su criterio, estén vulnerando el criterio de buena fe de la Ley de Decencia en las Comunicaciones.
CEO de Twitter, Jack Dorsey, en la mira de Trump
¿Hay censura en Facebook y Twitter?
Detrás de todo este asunto subyace un debate recurrente desde hace años: ¿hay censura en plataformas como Facebook, Twitter o Youtube? ¿Existe algún tipo de sesgo que hace que unos contenidos sean eliminados (los de izquierdas para la gente de izquierdas y los de derechas para la gente de derechas) y otros sigan publicados (los de derechas para la gente de izquierdas y los de izquierdas para la gente de derechas)?
Lo cierto es que estas redes sociales tienen dos formas de moderar ciertos contenidos, aunque la mayoría de estas acciones se ejercen de manera (casi) automática. Hay dos formas de que un contenido publicado en ellas acabe siendo eliminado:
- Moderación ajena. Prácticamente todas las redes sociales incluyen determinadas opciones para que sus usuarios denuncien el contenido que consideren que debe ser borrado. Así, si un usuario ve un tuit, un vídeo o una publicación de Facebook que pueda ser delictiva, que anime al acoso colectivo o que genere discurso de odio, entre otras cosas, puede marcar como tal dicha publicación y reportarla ante la red social en cuestión. Si la plataforma recibe muchas denuncias sobre un contenido concreto, generalmente lo borrará de manera automática, aunque el autor del contenido eliminado podrá recurrir dicha decisión.
- Moderación propia. En mayor o menor medida, todas las plataformas tienen sus propios criterios de moderación. En Twitter, por ejemplo, cuando un contenido es denunciado acaba siendo evaluado por la plataforma, que decidirá si ha incumplido sus términos de uso. Algo similar pasa en Facebook, donde incluso van más allá: tienen a centenares de moderadores (algunos de ellos en Barcelona) y han recurrido al organismo IFCN (del que forman parte compañías españolas como Maldita, Newtral y EFEVerifica) para colaborar ante la difusión de noticias falsas.
Huelga decir que, pese a los esfuerzos, las redes sociales no han conseguido acabar con los bulos en sus plataformas: tanto en Facebook como en Twitter los bots y las 'fake news' siguen campando a sus anchas. Pero esa, aunque parezca la misma, es otra batalla, indicó El Confidencial.