Responsabilidad
Google, Facebook y Twitter se juegan el futuro de internet en un juicio histórico
Dos casos de terrorismo y las presiones políticas pueden cambiar por completo la responsabilidad de las grandes tecnológicas
En los momentos de máxima tensión entre Twitter y Trump como presidente de Estados Unidos, el expresidente llegó a decir que si la red social decía tener potestad para eliminar comentarios, él la trataría como un editor y por tanto le aplicaría las leyes correspondientes a un medio de comunicación.
La orden ejecutiva que firmó días después aseguraba que Twitter estaba tomando «decisiones editoriales» que había dejado de ser «una plataforma pública neutral», y amenazó con que la «cerraría si eso fuera legal».
Los dos próximos días serán de vital importancia para Google, Facebook, Twitter, el resto de redes sociales y hasta para el conjunto de internet que se juega ser responsable de lo que sube la gente a sus redes o si se mantiene la exención de responsabilidad.
Ley de 1996
Una ley de 1996 que protegía a las tecnológicas establecía en la sección 230 que «ningún proveedor o usuario de un servicio informático interactivo será tratado como editor o difusor de información facilitada por otro proveedor de contenidos informativos».
Mediante esto, tanto las redes sociales como el resto de plataformas tenían un blindaje total de responsabilidad a los videos, comentarios, post o páginas webs que vieran la luz al cobijo y beneficio de sus tentáculos.
El 13 de noviembre de 2015 en la sala Bataclán de París, 131 personas fueron asesinadas por un atentado terrorista del Estado Islámico. Entre las víctimas estaba Nohemi González, una estudiante de Estados Unidos de 23 años.
Su padre, Reynaldo González, se convirtió desde ese momento en el gran azote de Google por los videos de propaganda radical que la plataforma alberga y, lo peor de todo, recomienda basándose en el historial de cada usuario.
Google se defiende
La familia de Nohemi ha perdido en los tribunales menores su cruzada contra la responsabilidad de las redes sociales, pero ahora será el Tribunal Supremo el que escuche a las partes y se pronuncie sobre si Alphabet violó la ley antiterrorista al permitir que se difundieran esos vídeos y compartiera ingresos con la publicidad insertada en ellos.
Google se defiende y asegura que «la clasificación y agrupación de vídeos es la quintaesencia de la edición», que necesita algoritmos para organizar los miles de millones de datos que se vuelcan cada día en la web y hacer posible la navegación.
Parece que aquella ley de 1996 se ha quedado obsoleta y que el ser humano ha logrado triturar los principios y la ética de internet para llegar a este punto. Google no quiere convertirse en editor de contenidos y alega que, si ocurriese, «se convertiría en una distopía en la que los proveedores se enfrentarían a presiones legales para censurar cualquier contenido censurable. Algunos podrían cumplir; otros podrían tratar de eludir la responsabilidad cerrando los ojos y dejando publicar todo, no importa lo objetable que sea. Este tribunal no debería socavar un elemento fundamental de la internet moderna».
Twitter contra Taamneh
La moderación de contenidos es lo que se va dilucidar en este caso donde también se quiere hacer responsable a las tecnológicas, que ya han recibido sentencias en contra y buscan amparo en el Supremo.
La política ha entrado de lleno en estos dos casos. Republicanos y Demócratas se culpan de influir en los sesgos de las redes sociales y de que sus perfiles son censurados.
De lo que pase estos días, Biden se ha pronunciado en The Wall Street Journal, lo que hace aún más potente su mensaje: «Necesitamos que las Big Tech se hagan responsables del contenido que difunden y de los algoritmos que usan».