Qué ver en las audiencias de la Corte Suprema de EE. UU. sobre algoritmos de redes sociales

La Corte Suprema de EE. UU. considerará esta semana si las empresas de redes sociales están protegidas de responsabilidad cuando utilizan sistemas algorítmicos para recomendar contenido relevante a los usuarios.

Los expertos de UC Berkeley dicen que este caso podría ser un momento decisivo para la Sección 230 de la Ley de Decencia en las Comunicaciones, que generalmente establece que las empresas de tecnología como Google no son responsables del contenido que otros publican en sus plataformas. Los argumentos orales previsualizarán el impacto que podrían tener los fallos de la corte.

«A veces, la Corte Suprema decide hacer declaraciones amplias sobre cómo interpreta una ley en particular y, a veces, se enfoca en la disputa específica que se le presenta», dijo Pamela Samuelson, codirectora del Berkeley Center for Law & Technology y cofacilitadora de la iniciativa tecnológica de interés público de la universidad. «Una cosa que buscaré es cuán amplia o limitadamente perciben la pregunta ante el tribunal».

Las plataformas de redes sociales han sido vectores de una amplia difusión de información errónea, acoso y otros contenidos que dañan a las personas y las sociedades. Durante años, los investigadores y legisladores han explorado cómo detener el flujo de contenido dañino, mientras se protege la libertad de expresión. Este caso coloca al frente y al centro del máximo tribunal de la nación en ese debate.

El tribunal escuchará los argumentos el 21 de febrero en el caso conocido como Gonzalez v. Google LLC, que fue presentado por familiares de un ciudadano estadounidense asesinado en un ataque de ISIS en 2015 en Francia.

Hacer que Internet funcione
La familia González alega que Google, a través de su entidad YouTube, violó la Ley Antiterrorista al contribuir materialmente a elevar el contenido de los terroristas. Eso ayudó a ISIS a crecer y fue la causa del ataque de 2015, afirmó la familia. Alegan que YouTube ayudó e instigó a los terroristas al recomendar algorítmicamente contenido creado por ISIS a sus usuarios cuyo historial de visualización sugería que estarían interesados en dichos videos. Los demandantes dicen que las recomendaciones son contenido creado por YouTube, así como imágenes en miniatura de los videos.

Google ha argumentado que la Sección 230 protege a la empresa de la responsabilidad de recomendar contenido a los usuarios finales. Los sistemas de recomendación de YouTube no están creando contenido, dijo Brandie Nonnecke, directora de CITRIS Policy Lab y profesora asociada de investigación de la Goldman School of Public Policy. Organizan el contenido, lo muestran y ayudan a que Internet funcione, dijo.

«Es como entrar a una biblioteca con el Sistema Decimal Dewey. El viejo catálogo de tarjetas, que es como un sistema de recomendación. Los libros se han organizado de una manera que lo ayuda a encontrar lo que está buscando, y es probable que sean otros libros. que le interesan están cerca en los estantes, al igual que un sistema de recomendación comparte contenido con usted que cree que le interesa», dijo Nonnecke. «Sin eso, es como ir a una biblioteca donde todos los libros están tirados en el suelo y dices: ‘Oh, creo que tal vez el libro sobre historia del arte está allí’, pero no sabes. «

Los demandantes en el caso no discuten si los algoritmos son necesarios para Internet, dijo Samuelson, profesor de derecho de Berkeley. Están haciendo una distinción entre algoritmos y argumentando que los de YouTube no deben protegerse, dijo, resumiendo los escritos del demandante. Nonnecke dijo que diferenciar entre mostrar y recomendar contenido podría tener un amplio efecto paralizante en la libertad de expresión.

«Todos estamos de acuerdo con que si es contenido ilegal y las [plataformas] saben que está ahí, y aún lo comparten y no lo eliminan, eso es un problema», dijo Nonnecke. Pero trazar una línea técnica entre mostrar y recomendar contenido, dijo, no «va a lograr el objetivo que González quiere de detener la propagación de contenido dañino».

Nonnecke escuchará específicamente durante la audiencia de febrero cualquier mención de cómo una decisión podría afectar en última instancia la libertad de expresión. Mientras tanto, Samuelson dijo que escuchará para ver si los jueces de la Corte Suprema hacen una distinción similar entre los tipos de algoritmos.

Samuelson también está interesado en saber si los jueces compartirán sus pensamientos sobre el papel del Congreso en los debates de la Sección 230. El Congreso ha presentado más de 50 proyectos de ley en los últimos años para cambiar o derogar la ley, aunque ninguno ha sido aprobado, dijo.

Botón volver arriba