Los conspiradores y los extremistas de extrema derecha están culpando a casi todo y a todos por el colapso del puente de Baltimore el martes por la mañana. Una lista no exhaustiva de cosas a las que se culpa por el colapso del puente en Telegram y X incluye al presidente Biden, Hamas, ISIS, P. Diddy. , Nickelodeon, India, ex presidente Barack Obama, Islam, extraterrestres, Sri Lanka, Foro Económico Mundial, Naciones Unidas, Despertar, Ucrania, ayuda exterior, la CIA, pueblo judío, Israel, Rusia, China, Irán, vacunas Covid, DEI, inmigrantes, negros y encierros. El puente de armadura Francis Scott Key se derrumbó cuando el carguero MV Dali chocó con uno de los soportes del puente. Se presume que seis trabajadores de la construcción, que en ese momento estaban tapando los baches en la calzada del puente, estaban muertos. El barco es propiedad de Grace Ocean Private Ltd., con sede en Singapur, y la tripulación de 22 personas era toda india. El barco se dirigía a Colombo, Sri Lanka, en el momento del accidente. Esto no impidió que la gente “haciera preguntas” sobre el incidente, una respuesta conspirativa frecuente a acontecimientos importantes. Y aunque a los teóricos de la conspiración les resulta difícil determinar exactamente qué conspiración causó el colapso, en lo único que sí están de acuerdo es en que este incidente es un “evento del cisne negro”. El término evento del cisne negro ha existido durante décadas y se utiliza para Describe un evento global importante (típicamente en los mercados financieros) que puede causar un daño significativo a la economía de un país. Pero en los últimos años, el término ha sido adoptado por personas con mentalidad conspirativa para explicar un evento desencadenado por el llamado Estado profundo que señalaría una revolución inminente, una tercera guerra mundial o alguna otra catástrofe apocalíptica. Las primeras personas en calificar el colapso del puente como un evento de cisne negro fueron el ex asesor de seguridad nacional de Estados Unidos, Michael Flynn. “Este es un evento de CISNE NEGRO”, escribió en X. “Los cisnes negros normalmente provienen del mundo de las finanzas (no del ejército)… Hay capitanes de puerto para cada uno de estos puntos de tránsito en Estados Unidos que están a cargo de asegurar la seguridad de la navegación… comience por ahí”. La publicación de Flynn ha sido vista 7,2 millones de veces. El influencer misógino Andrew Tate, acusado en Rumania de violación y trata de personas, también publicó en X el martes por la mañana temprano, escribiendo: “Nada es seguro. El evento del Cisne Negro es inminente”. La publicación ha sido vista casi 19 millones de veces. El término cisne negro rápidamente comenzó a ser tendencia en X, y pronto conspiracionistas, extremistas y legisladores de derecha comenzaron a dar explicaciones sobre qué o quién desencadenó este “evento del cisne negro”. que afirma un vínculo entre el colapso del puente y la película Leave the World Behind ha sido vista más de 1,2 millones de veces. La publicación afirmó que debido a que el barco se dirigía a Sri Lanka, que tiene un león en su bandera, la situación estaba relacionada con el barco que circula al comienzo de la película y que se llamaba White Lion. La publicación también señala que la película fue producida por Obama.
Source link
Etiqueta: desinformación

El 8 de noviembre, Meta anunció que exigirá que se etiqueten los anuncios políticos que hayan sido alterados digitalmente, utilizando inteligencia artificial u otra tecnología. ‘Time’ informa que el anuncio de Meta llega un día después de que Microsoft revelara las medidas que tomará para proteger las elecciones.
Source link
Comparte en tu plataforma favorita Recuerda mis palabras, la IA es mucho más peligrosa que las armas nucleares… ¿por qué no tenemos supervisión regulatoria? Elon Musk Elon Musk ha criticado abiertamente la inteligencia artificial y ha expresado preocupación por su posible impacto en la sociedad. Afirmó que “si se crea una IA súper inteligente, la IA será mejor que los humanos en la creación de IA. Si la humanidad no tiene cuidado, crearemos algo que será mejor para destruir el mundo que para crearlo”. Aquí hay cinco razones por las que Elon Musk teme a la inteligencia artificial: 1- Seguridad y control La seguridad y el control son preocupaciones que Elon Musk se ha pronunciado sobre la inteligencia artificial. Ha advertido que a medida que los sistemas de IA se vuelven más avanzados y autónomos, puede resultar difícil o incluso imposible de controlar para los humanos. Esta preocupación tiene sus raíces en la idea de que a medida que los sistemas de IA se vuelven más inteligentes y capaces, pueden comportarse de maneras inesperadas o indeseables. Por ejemplo, un sistema de IA diseñado para realizar una tarea específica, como controlar un dron, podría tomar decisiones dañinas o peligrosas si su programación no está diseñada para tener en cuenta todos los escenarios posibles. En el caso extremo, un sistema de IA diseñado para llevar a cabo una tarea específica podría volverse autónomo y operar más allá del control humano. Esto podría tener consecuencias no deseadas, como el desarrollo de armas autónomas que podrían usarse para causar daño o destrucción. Elon Musk ha pedido mayor cautela y transparencia en el desarrollo y despliegue de sistemas de IA, y la creación de mecanismos que garanticen que los sistemas de IA sigan alineados con los valores humanos. También ha pedido más investigación sobre la seguridad de la IA y el desarrollo de métodos para garantizar que los sistemas de IA permanezcan bajo control humano y no representen una amenaza para la humanidad. En general, la preocupación por la seguridad y el control es un reflejo de debates y discusiones más amplios sobre el futuro de la IA y su impacto en la sociedad. Si bien muchos expertos creen que la IA tiene el potencial de aportar importantes beneficios a la sociedad, también se reconoce que existen riesgos reales asociados con el desarrollo y la implementación de sistemas avanzados de IA, y que esos riesgos deben considerarse y gestionarse cuidadosamente. 2- Desplazamiento laboral El desplazamiento laboral es otra pesadilla de la IA para Elon Musk. Ha dicho que la IA podría provocar un importante desplazamiento de puestos de trabajo, a medida que las máquinas y los algoritmos sean capaces de realizar tareas que antes realizaban los humanos. Hoy en día, aplicaciones como ChatGPT están muy de moda y algunos dicen que podrían sustituir muchas tareas. Consulte este excelente curso sobre cómo aprovechar los beneficios de ChatGPT. A medida que los sistemas de IA se vuelvan más avanzados y capaces, podrán automatizar cada vez más tareas que antes realizaban los humanos. Esto podría provocar pérdidas generalizadas de empleos y otros impactos económicos, ya que los trabajadores son desplazados por máquinas y algoritmos. Elon Musk ha pedido que se tomen medidas proactivas para mitigar este impacto y garantizar que los trabajadores tengan las habilidades que necesitan para prosperar en la era de la IA. También ha pedido más investigación sobre los impactos sociales y económicos de la IA, y el desarrollo de políticas y programas que apoyen a los trabajadores en la transición a una economía más automatizada. 3- Sesgo y discriminación Elon Musk ha señalado que los sistemas de IA son tan imparciales como los datos con los que se entrenan. Si los datos utilizados para entrenar sistemas de IA contienen sesgos o imprecisiones, los algoritmos pueden amplificar y perpetuar estos sesgos. Esto podría conducir a una discriminación generalizada y otros resultados perjudiciales. Aquí hay un ejemplo: suponga que desarrolla un sistema de inteligencia artificial diseñado para ayudar a los agricultores a optimizar sus cultivos. El sistema de inteligencia artificial utiliza datos sobre patrones climáticos, condiciones del suelo y otros factores para predecir los mejores momentos para plantar y cosechar cultivos. El sistema está diseñado para ayudar a los agricultores a hacer un uso más eficiente de sus recursos y aumentar sus rendimientos. Sin embargo, una vez que se implementa el sistema de IA, queda claro que existen consecuencias no deseadas. El sistema de IA ha tomado algunas decisiones que están teniendo impactos negativos en el medio ambiente. Por ejemplo, ha recomendado el uso de ciertos pesticidas que son tóxicos para la vida silvestre, o ha alentado a los agricultores a plantar cultivos en áreas propensas a la erosión. 4- Consecuencias no deseadas Elon Musk ha advertido que a medida que los sistemas de IA se vuelven más complejos y autónomos, puede resultar difícil predecir su comportamiento y las consecuencias de sus acciones. Ha pedido mayor cautela y transparencia en el desarrollo y despliegue de sistemas de IA. Suponga que desarrolla un sistema de inteligencia artificial que la policía utilizará para ayudar a identificar posibles sospechosos en casos penales. El sistema de inteligencia artificial utiliza tecnología de reconocimiento facial y otras fuentes de datos para identificar a personas que pueden estar involucradas en actividades delictivas. El sistema está diseñado para ser una herramienta eficaz para la policía y ayudarla a resolver delitos más rápidamente. Sin embargo, una vez que se implementa el sistema de IA, queda claro que existen problemas con su precisión. El sistema de inteligencia artificial está cometiendo errores y, en algunos casos, identifica erróneamente a personas como sospechosas. Esto está causando graves daños a las personas acusadas injustamente y está socavando la confianza del público en la policía y en la tecnología misma. Este es un ejemplo de falta de responsabilidad, que es otra preocupación clave que Elon Musk ha expresado sobre la inteligencia artificial. A medida que los sistemas de IA se vuelven más avanzados y autónomos, resulta cada vez más difícil determinar quién es el responsable cuando algo sale mal. 5- Riesgo existencial Elon Musk también ha advertido que los sistemas avanzados de IA podrían suponer un riesgo existencial para la humanidad, si se volvieran hostiles o si se utilizaran para causar daño. Ha pedido una mayor investigación sobre la seguridad de la IA y el desarrollo de mecanismos para garantizar que los sistemas de IA sigan alineados con los valores humanos. Sin embargo, algunos críticos sostienen que Elon Musk exagera los peligros de la inteligencia artificial y que sus advertencias son exageradas. Sostienen que es poco probable que los sistemas de IA representen una amenaza existencial para la humanidad y que los beneficios de la IA superarán los riesgos. Otros argumentan que Elon Musk está mal informado sobre la naturaleza de la IA y sus capacidades. Sostienen que es poco probable que los sistemas de IA se vuelvan conscientes de sí mismos o desarrollen sus propias motivaciones, y que la probabilidad de que la IA represente una amenaza para la humanidad es baja. La próxima generación de programadores posiblemente será la que juzgue esto mejor. Aquí está mi publicación sobre 5 juegos para enseñar a nuestros hijos a programar. Relacionado Comparte en tu plataforma favorita
El gigante de las redes sociales sabe que el discurso de odio es un problema. También sabe que es rentable, afirmó el domingo un antiguo empleado. PUBLICIDAD El modelo de negocios de Facebook promueve el discurso de odio, daña la democracia e incluso está «destrozando nuestras sociedades», dijo un ex gerente de producto del equipo de desinformación cívica de la compañía. Frances Haugen, quien dejó Facebook en mayo de este año, fue la denunciante que filtró datos internos de la empresa. investigación, que incluye informes que revelan el impacto de Instagram en la salud mental de las adolescentes, al Wall Street Journal el mes pasado. En declaraciones a la cadena de televisión estadounidense CBS el domingo, Haugen dijo que su experiencia trabajando para Facebook reveló una empresa que priorizaba el crecimiento sobre la fabricación de su producto. más seguro.»Lo que vi una y otra vez fue que había conflictos de intereses entre lo que era bueno para el público y lo que era bueno para Facebook», dijo Haugen al programa 60 Minutes de CBS. «Facebook optó una y otra vez por optimizar para sus propios intereses, como ganar más dinero», dijo. «Traición a la democracia» Haugen se unió a Facebook en junio de 2019, trabajando en un equipo encargado de abordar la desinformación en torno a las elecciones. , Facebook anunció una serie de medidas que, según dijo, ayudarían a conectar a los votantes con información precisa y reducirían «los riesgos de confusión postelectoral». Sin embargo, poco después de las elecciones, el equipo se disolvió. Haugen afirmó que Facebook luego revirtió muchas de las intervenciones que había implementado para limitar la difusión de información errónea. «Tan pronto como terminaron las elecciones, las apagaron o cambiaron la configuración a la que era antes, para priorizar el crecimiento sobre la seguridad», dijo Haugen. «Y eso realmente me parece una traición a la democracia». Los disturbios en el Capitolio «no son culpa nuestra», dice Facebook En la entrevista del domingo, Haugen estableció una conexión entre Facebook y los disturbios en el Capitolio de Estados Unidos el 6 de enero, cuando los partidarios del ex presidente Donald Trump irrumpieron en la sede de la legislatura estadounidense. Dijo que no confiaba en que la compañía «invirtiera lo que realmente se necesita para evitar que Facebook sea peligroso». Hablando antes de que se transmitiera la entrevista de Haugen, el vicepresidente de políticas y asuntos globales de Facebook, Nick Clegg dijo a CNN que la compañía no aceptaba que fuera uno de los principales contribuyentes a la polarización política en Estados Unidos. «La insurrección de ese día recae directamente en las personas que infligieron la violencia y en quienes la alentaron, incluido el presidente Trump», dijo Clegg. «Creo que da a la gente una falsa confianza asumir que debe haber una explicación tecnológica o técnica para los problemas de polarización política en los Estados Unidos… Es demasiado fácil decir que es culpa de Facebook». No luchar contra el odioSegún los documentos de Facebook proporcionados a CBS por Haugen, la empresa es consciente tanto de la difusión del discurso de odio en sus plataformas como de lo desafiante que representa el problema.»Nosotros Estimamos que podemos actuar tan solo entre el 3% y el 5% del odio y ~0,6% del V&I. [Violence and Incitement] en Facebook a pesar de ser el mejor del mundo en eso», decía un informe interno. PUBLICIDAD «Tenemos evidencia de una variedad de fuentes de que el discurso de odio, el discurso político divisivo y la desinformación en Facebook y la familia de aplicaciones están afectando a las sociedades de todo el mundo. mundo», dijo otro. Según Haugen, solucionar el problema del discurso de odio de Facebook podría requerir más que una moderación de contenido más estricta y reglas más estrictas. «Es más fácil inspirar ira». Un cambio de 2018 en el algoritmo que decide qué contenidos se muestran a los usuarios sin darse cuenta Terminó brindando a los usuarios de Facebook información que era más probable que desencadenara una respuesta de enojo, dijo Haugen a CBS».[Facebook] está optimizando el contenido que genera interacción, una reacción», dijo. «Pero su propia investigación muestra que el contenido que es odioso, que es divisivo, que es polarizante, es más fácil inspirar a la gente a la ira que a otras emociones». .PUBLICIDADHaugen alegó que la empresa no estaba dispuesta a cambiar el algoritmo porque podría afectar los resultados del negocio. «Facebook se ha dado cuenta de que si cambian el algoritmo para que sea más seguro, las personas pasarán menos tiempo en el sitio y harán menos clic en «Nadie en Facebook es malévolo, pero los incentivos no están alineados. «Facebook gana más dinero cuando consumes más contenido. Las personas disfrutan interactuando con cosas que provocan una reacción emocional, y cuanto más ira se exponen, más interactúan y más consumen».
Source link