La gente pasa frente a una valla publicitaria de YouTube el 27 de septiembre de 2019 en Berlín, Alemania.
Sean Gallup | Getty Images
El Departamento de Justicia advirtió a la Corte Suprema contra una interpretación demasiado amplia de una ley que protege a las empresas de redes sociales de responsabilidad por lo que los usuarios publican en sus plataformas, una posición que socava de Google defensa en un caso que podría remodelar el papel de la moderación de contenido en las plataformas digitales.
en un breve presentada el miércoles dirigida por el procurador general interino del DOJ, Brian Fletcher, la agencia dijo que la Corte Suprema debería anular un fallo de la corte de apelaciones que encontró protegida la Sección 230 de la Ley de Decencia en las Comunicaciones Google de ser responsable bajo la ley antiterrorista de los Estados Unidos.
La Sección 230 permite que las plataformas en línea participen en la moderación de contenido de buena fe mientras las protege de ser responsables de las publicaciones de sus usuarios. Las plataformas tecnológicas argumentan que es una protección fundamental, especialmente para las plataformas más pequeñas que, de lo contrario, podrían enfrentarse a costosas batallas legales, ya que la naturaleza de las plataformas de redes sociales dificulta la detección rápida de todas las publicaciones dañinas.
Pero la ley ha sido un tema candente en el Congreso, ya que los legisladores de ambos lados argumentan que el escudo de responsabilidad debería limitarse drásticamente. Pero mientras muchos republicanos creen que las asignaciones de moderación de contenido de la ley deberían reducirse para reducir lo que alegan es la censura de las voces conservadoras, muchos demócratas se oponen a cómo la ley puede proteger las plataformas que albergan información errónea y discurso de odio.
Los demandantes en el caso de la Corte Suprema conocido como González v. Google, que son los familiares de la ciudadana estadounidense Nohemi González, quien murió en el ataque terrorista de 2015 por el cual ISIS se atribuyó la responsabilidad, alegan que YouTube de Google no impidió adecuadamente que ISIS distribuyera contenido en la red. sitio para compartir videos para ayudar en sus esfuerzos de propaganda y reclutamiento.
Los demandantes presentaron cargos contra Google en virtud de la Ley Antiterrorista de 1990, que permite a los ciudadanos estadounidenses lesionados por el terrorismo reclamar daños y perjuicios y se actualizó en 2016 para agregar responsabilidad civil secundaria a «cualquier persona que ayude y sea cómplice, brindando asistencia sustancial a sabiendas» a » un acto de terrorismo internacional».
La familia de González afirma que YouTube no hizo lo suficiente para evitar que ISIS usara su plataforma para difundir su mensaje. Alegan que a pesar de que YouTube tiene políticas contra el contenido terrorista, no supervisó adecuadamente la plataforma ni bloqueó el uso de ISIS.
Tanto los tribunales de distrito como los de apelación acordaron que la Sección 230 protegía a Google de la responsabilidad por alojar el contenido.
Aunque no tomó una posición sobre si Google debería ser declarado responsable en última instancia, el Departamento recomendó que se anulara el fallo del tribunal de apelaciones y se devolviera al tribunal inferior para una revisión adicional. La agencia argumentó que si bien la Sección 230 prohibiría los reclamos de los demandantes basados en la ley antiterrorista basada en la supuesta falla de YouTube en bloquear los videos de ISIS de su sitio, «el estatuto no prohíbe los reclamos basados en las supuestas recomendaciones específicas de contenido de ISIS de YouTube».
El Departamento de Justicia argumentó que la corte de apelaciones estaba en lo correcto al encontrar que la Sección 230 protegía a YouTube de la responsabilidad por permitir que los usuarios afiliados a ISIS publicaran videos, ya que no actuó como editor al editar o crear los videos. Pero, agregó, las afirmaciones sobre «el uso de algoritmos y funciones relacionadas de YouTube para recomendar contenido de ISIS requieren un análisis diferente». El Departamento de Justicia dijo que la corte de apelaciones no consideró adecuadamente si los reclamos de los demandantes podrían merecer responsabilidad según esa teoría y, como resultado, la Corte Suprema debería devolver el caso a la corte de apelaciones para que puedan hacerlo.
“A lo largo de los años, YouTube ha invertido en tecnología, equipos y políticas para identificar y eliminar contenido extremista”, dijo el portavoz de Google, José Castañeda, en un comunicado. «Trabajamos regularmente con las fuerzas del orden, otras plataformas y la sociedad civil para compartir inteligencia y mejores prácticas. Socavar la Sección 230 haría más difícil, no más fácil, combatir el contenido dañino, lo que haría que Internet fuera menos seguro y menos útil para todos nosotros. «
Chamber of Progress, un grupo de la industria que cuenta con Google como uno de sus socios corporativos, advirtió que el escrito del Departamento de Justicia invita a un precedente peligroso.
“La postura del Procurador General obstaculizaría la capacidad de las plataformas para recomendar hechos sobre mentiras, ayuda sobre daño y empatía sobre odio”, dijo el director general de la Cámara del Progreso, Adam Kovacevich, en un comunicado. «Si la Corte Suprema falla a favor de González, las plataformas no podrían recomendar ayuda para quienes estén considerando autolesionarse, información sobre salud reproductiva para mujeres que estén considerando abortar e información electoral precisa para personas que quieran votar. Esto desencadenaría una avalancha de demandas de trolls y haters descontentos con los esfuerzos de las plataformas para crear comunidades en línea seguras y saludables».
VER: El desordenado negocio de la moderación de contenido en Facebook, Twitter, YouTube