Los algoritmos de las redes sociales promueven contenido que puede ser violento y que atrae tráfico
El Tribunal Supremo de EE.UU. aceptó escuchar una demanda que cuestiona la ley que libera de responsabilidad a las empresas de Internet y a las redes sociales por el contenido recomendado a sus usuarios, en un caso que involucra a una estudiante estadounidense asesinada en 2015 por militantes islamistas en París.
El tribunal escuchará la apelación de los padres y familiares de Nohemi González, una mujer californiana de 23 años que estudiaba en París cuando fue asesinada, contra el fallo de un tribunal inferior que eximió a YouTube, propiedad de Google, de responsabilidad en una demanda por daños y perjuicios que la familia presentó en virtud de la Ley Antiterrorista estadounidense.
La demanda acusa a Google de apoyar materialmente el terrorismo en violación de la Ley Antiterrorista federal, que permite a los estadounidenses recuperar daños relacionados con “un acto de terrorismo internacional”.
LEA TAMBIÉN: Así venden tus datos de usuario en las redes sociales por la dark web
La demanda alega que YouTube, a través de algoritmos informáticos, recomendaba “videos de ISIS a usuarios”, un elemento “fundamental para el crecimiento y actividad” del grupo Estado Islámico, que reinvindicó los ataques de noviembre de 2015 en Paris, en donde murieron un total de 130 personas, 90 de ellas durante un concierto en el teatro Bataclan y el resto en las calles de la ciudad.
González fue la única estadounidense asesinada ese día mientras cenaba en un café parisino.
Las empresas de redes sociales están protegidas de responsabilidad legal por el contenido que sus usuarios publiquen en sus plataformas en virtud de la Sección 230 de la Ley de Decencia en las Comunicaciones, que establece que ningún proveedor de “servicios informáticos interactivos” será “tratado como el editor o interlocutor de cualquier información” publicada por otro proveedor de contenido, en este caso los usuarios.
El caso ante el Supremo busca establecer si las protecciones de la Sección 230 aplican a los videos recomendados en las redes sociales.
Los demandantes alegan que las protecciones a las plataformas deben limitarse a “funciones editoriales tradicionales” como “publicar, retirar, posponer o alterar contenido”, y no a las recomendaciones de los algoritmos, mientras que Google sostiene que su contenido recomendado está protegido por la Sección 230.
Los tribunales federales de distrito y apelaciones que han visto este caso le han dado la razón a Google pero otros tribunales en el país han fallado en contra de las empresas tecnológicas, responsabilizándolas por el contenido recomendado.
El Supremo también analizará otra demanda separada pero similar contra Twitter, Facebook y YouTube, responsabilizándolas por contenido extremista publicado en sus redes tras un ataque terrorista en Turquía en 2017.
“Los servicios informáticos interactivos dirigen constantemente esas recomendaciones, de una forma u otra, a prácticamente todos los adultos y niños de Estados Unidos que utilizan las redes sociales”, alegaron los demandantes en su petición al Supremo.
“La aplicación de la Sección 230 a esas recomendaciones elimina todo incentivo de responsabilidad civil para que los servicios informáticos interactivos eviten recomendar (…) materiales perjudiciales y niega la reparación a víctimas” del crimen, agregaron.
LEA TAMBIÉN: Qué es el código ‘algospeak’ y por qué se está apoderando de las redes sociales
En 2020 y en vista de otro caso similar uno de los jueces supremos, el conservador Clarence Thomas, sugirió que sus colegas debían analizar la Sección 230 en el futuro y “considerar si el texto de este estatuto, cada vez más importante, se ajusta al estado actual de la inmunidad de la que gozan las plataformas de Internet”.
Un estudio de la Fundación Mozilla realizado en julio de 2021 reveló que el 70% de los vídeos señalados por los participantes como ofensivos se encontraban en el sistema de recomendaciones de la plataforma.
Ex ingenieros e ingenieros activos de YouTube dijeron al Wall Street Journal en 2018 que si bien la plataforma no estaba recomendando deliberadamente contenido extremista, su algoritmo destaca videos que tienden a ser “sensacionalistas” y que “ya están atrayendo mucho tráfico y manteniendo a la gente en el sitio”
FORBES STAFF / REUTERS