La Sección 230 de la Ley de Decencia en las Telecomunicaciones es una ley muy importante que permite que Internet funcione como lo hace hoy. Sin ella, su sitio web favorito dejaría de existir o cambiaría de manera que se volvería irreconocible. Necesitamos estas protecciones porque, sin ellas, no tendríamos forma de expresarnos en línea si no estuviéramos de acuerdo con quien esté encargado de moderar el contenido. Pero también es una ley muy amplia que necesita ser reformada. Cuando se redactó en 1996, nadie podía predecir el poder que ejercerían unas pocas empresas tecnológicas o cuánta influencia tendrían los sitios de redes sociales sobre todos nosotros. A medida que las situaciones cambian, las leyes que las rigen deben hacer lo mismo. Una decisión reciente del Tribunal de Apelaciones del Tercer Circuito de Estados Unidos ha dictaminado que ByteDance, la empresa matriz de TikTok, es responsable de la distribución de contenido dañino a pesar de estar protegida como su editora. Es una historia trágica de una niña de 10 años que intenta el «desafío del desmayo» que vio en un corto de TikTok y muere asfixiada como resultado. La madre de la niña demandó por negligencia y muerte por negligencia y el caso se abrió camino a través de los tribunales hasta el Tercer Circuito. La siguiente parada es la Corte Suprema. Si bien el caso es terrible, el fallo del Tercer Circuito puede ser lo que se necesita para renovar la Sección 230 y hacer que las grandes tecnológicas «rindan cuentas» al mismo tiempo que las protege. Android Central se ha comunicado con TikTok para obtener una declaración y actualizará este artículo cuando la recibamos. Hay una diferencia entre un editor y un distribuidor. Si escribo una publicación en X o hago un video en TikTok fomentando una actividad ilegal, X o TikTok solo lo están publicando. Una vez que su algoritmo lo detecta y lo impone a otros, lo distribuyen. En realidad, no se puede tener uno sin el otro, pero el tercero ha decidido que la cláusula 230 que establece que «Ningún proveedor o usuario de un servicio informático interactivo será tratado como el editor o portavoz de ninguna información proporcionada por otro proveedor de contenido de información» no protege al editor de las consecuencias de distribuir el contenido. Obtenga las últimas noticias de Android Central, su compañero de confianza en el mundo de Android (Crédito de la imagen: Fuente: Joe Maring / Android Central) No estoy de acuerdo con el razonamiento del Tercero aquí simplemente porque se distribuye como resultado de su publicación. Por otra parte, no tengo voz ni voto en el asunto porque soy un tipo cualquiera, no un juez de un tribunal de circuito. Señala que los gigantes de las redes sociales deben tener algún incentivo para controlar mejor su contenido, o se debe cambiar la ley. No, no estoy pidiendo censura. Deberíamos poder decir o hacer cualquier tontería que queramos siempre que estemos dispuestos a afrontar las consecuencias. Pero a los Metas y ByteDances del mundo no les tiene por qué gustar lo que decimos o hacemos y pueden deshacernos de ello cuando quieran como consecuencia. Sin la Sección 230, lo harían con mucha más frecuencia y esa no es la solución adecuada. No tengo ni idea de cómo se arreglan las cosas. No necesito saber cómo arreglarlo para saber que están rotos. La gente que cobra salarios mucho más altos que yo es responsable de eso. Sé que a una niña de 10 años no se le debería tentar a asfixiarse porque TikTok le dijo que era genial. Sé que nadie que trabaja para ByteDance quería que lo hiciera. También sé que ninguna cantidad de control parental podría evitar que esto sucediera el 100% del tiempo. Necesitamos que exista una legislación como la Sección 230 porque no hay forma de evitar que el contenido terrible se escape incluso a la moderación más draconiana. Pero es necesario volver a analizarla y los legisladores deben resolverlo. Ahora podría ser el momento adecuado para hacerlo.
Deja una respuesta