Todo lo que necesitas saber sobre tecnología

Etiqueta: objetivo

Shan Masood cree que Pakistán necesita «consistencia» en la selección del equipo después de la derrota de la serie contra Bangladesh

Shan Masood cree que Pakistán necesita «consistencia» en la selección del equipo después de la derrota de la serie contra Bangladesh

Rawalpindi [Pakistan]4 de septiembre (ANI): Después de la decepcionante derrota de Pakistán en la serie contra Bangladesh, el capitán Shan Masood dijo que el equipo necesita lograr «consistencia» en la selección del equipo. Pakistán concedió una derrota por seis wickets contra Bangladesh en el segundo partido de prueba en Rawalpindi. Masood mostró una actuación llamativa en la primera entrada, anotando 57 carreras de 69 bolas a una tasa de strike de 82.61. En la segunda entrada, anotó 28 carreras de 34 bolas. Hablando en la conferencia de prensa posterior al partido, Masood señaló los problemas a la hora de seleccionar un jugador. «Tendremos que trabajar para lograr consistencia en la selección. Tendremos que soportar los fallos de los jugadores. No se trata solo de Babar Azam, cuanto más consistentemente le des una oportunidad a alguien, mejor se desempeñará. Tendrás que buscar dónde conseguir a ese jugador que puede ser una selección automática en su forma actual. Dado que actualmente no estamos jugando al cricket de bola roja, no tenemos muchas opciones para elegir. Jugamos con el mismo equipo que llevamos a Australia y tuvimos éxito para Pakistán a nivel nacional e internacional», dijo Masood. El capitán de Pakistán agregó que no está demasiado preocupado por que le quiten su capitanía después de la derrota de la serie contra Bangladesh. «No estoy preocupado por mi seguridad laboral. Acepté este trabajo para hacer los cambios que creemos que ayudarán a este equipo. Si creo que este equipo puede ir en una dirección determinada, incluso si mi fracaso personal lleva a Pakistán en esa dirección, estaré contento. Sin importar el tiempo que tenga, estaré agradecido y haré lo mejor que pueda», agregó. La victoria por 10 wickets en el primer partido marcó la primera victoria de Bangladesh en una prueba sobre Pakistán. Una repetición de esta actuación en la segunda prueba solidificó un logro histórico para el equipo. Esta victoria de la serie es también la primera victoria de Bangladesh en una serie de pruebas (de dos partidos o más) contra un equipo que no sea Zimbabwe y las Indias Occidentales, según el ICC. La victoria ha impulsado a Bangladesh en la clasificación del Campeonato Mundial de Pruebas del ICC, impulsándolos al No. 4 con un porcentaje de puntos de 45.83, superando a Inglaterra. Comenzando el quinto día con 42/0, necesitando 143 carreras más para ganar, Bangladesh tuvo un comienzo firme, acercándose lentamente al modesto objetivo sin tomar demasiados riesgos. Agregaron otras 80 carreras en la sesión de la mañana, pero perdieron ambos abridores en el espacio de 12 carreras. A pesar de los wickets, el experimentado dúo de Najmul Hossain Shanto y Mominul Haque armaron una posición de 57 carreras para mantener a los visitantes en el buen camino. Shanto fue despedido poco después del almuerzo por 38, y Mominul pereció por 34, lo que hizo que Bangladesh tartamudeara ligeramente hacia el final. Sin embargo, la veterana pareja de Mushfiqur Rahim (22) y Shakib Al Hasan (21) persistió y guió a Bangladesh hasta la línea sin más contratiempos. Más temprano en la prueba, después de optar por fildear primero, Bangladesh tuvo otra actuación fantástica, eliminando a Pakistán por unas modestas 274 carreras. A pesar de los medios siglos del capitán Shan Masood y el abridor Saim Ayub, la captura de cinco wickets de Mehidy Hasan Miraz, combinada con tres wickets de Taskin Ahmed, aseguró que el total de la primera entrada de Pakistán permaneciera al alcance. Pakistán respondió brillantemente con la pelota, con Khurram Shahzad liderando la remontada con una captura de seis wickets que le dio al equipo local una pequeña ventaja de 12 carreras. Sin embargo, los lanzadores de Bangladesh no estaban listos. Dos héroes más dieron un paso al frente para los visitantes, Hasan Mahmud, de 24 años, y Nahid Rana, de 21, quienes tomaron un total combinado de nueve wickets mientras Pakistán colapsaba con solo 172 carreras en la segunda entrada, lo que le impuso a Bangladesh un objetivo de 185 con cuatro sesiones restantes en el juego. El mal tiempo y la mala luz detuvieron el juego temprano en el día 4, pero solo retrasaron lo inevitable, ya que los visitantes terminaron la prueba con seis wickets de sobra. (ANI)

Rohit Sharma iguala la hazaña de Babar Azam de más victorias como capitán en T20I

Rohit Sharma iguala la hazaña de Babar Azam de más victorias como capitán en T20I

Islote de Gros [St Lucia]25 de junio (ANI): El bateador y capitán de Star India, Rohit Sharma, igualó el notable hito de Babar Azam de mayor número de victorias como capitán en T20I. Rohit Sharma logró la difícil hazaña después de la victoria de 24 carreras de la India sobre Australia en el partido Super Eights de la Copa Mundial T20 2024 en curso en el Estadio Nacional de Cricket Daren Sammy. Actualmente, Rohit Sharma ha llevado a India a 48 victorias después de jugar 60 partidos en el formato T20I. Mientras tanto, el capitán de Pakistán, Babar Azam, lideró a los Hombres de Verde en 85 partidos y logró 48 victorias. El capitán de Uganda, Brian Masaba, ocupa el tercer lugar en la tabla después de llevar a su equipo a 45 victorias en el formato de 20 o más. Recapitulando el partido, Australia ganó el sorteo y decidió jugar a los bolos contra India. Rohit Sharma (32 carreras de 41 bolas, 7 de cuatro y 8 de seis) realizó un golpe estupendo con una tasa de strike de 224,39. El golpe del capitán de Rohit ayudó a India a poner 205/5 en el marcador en la primera entrada. Suryakumar Yadav (31 carreras de 16 bolas, 3 de cuatro y 2 de seis) y Hardik Pandya (27 carreras de 17 bolas, 1 de cuatro y 2 de seis) desempeñaron un papel de apoyo y dieron un objetivo sólido. Mitchell Starc y Marcus Stoinis lideraron el ataque de los bolos australianos después de que ambos consiguieran dos ventanillas cada uno en sus respectivos hechizos. Durante la persecución de carreras, Travis Head (76 carreras de 43 bolas, 9 de cuatro y 4 de seis) jugó un golpe peligroso, pero Jasprit Bumrah eliminó al abridor australiano en el 17. Mitchell Marsh (37 carreras de 28 bolas, 3 cuatros y 2 seises) también hizo todo lo posible para perseguir el objetivo de 206 carreras, pero se quedó corto frente al ataque de los bolos indios. Arshdeep Singh lideró el ataque de los bolos de la India después de conseguir tres ventanillas en su período de cuatro over y ayudar a la India a ganar el partido por 24 carreras. El capitán de India, Rohit Sharma, fue nombrado Jugador del Partido después de su estupendo golpe en la primera entrada. (Y YO)

Merchant: ¿Cómo utiliza Israel la IA militar en los ataques a Gaza?


La niebla de la guerra se ha espesado en Gaza, una invasión terrestre está cobrando fuerza y ​​los bombardeos aéreos continúan a un ritmo vertiginoso. El martes, misiles alcanzaron un campo de refugiados en Jabaliya, donde las Fuerzas de Defensa de Israel dijeron que estaba estacionado un alto líder de Hamas, matando a docenas de civiles. El debate sobre la crisis continúa en línea y fuera de ella, pero a pesar de todo el discurso, hay una pregunta pendiente que tengo. No se ha considerado ampliamente: ¿Hasta qué punto Israel depende de la inteligencia artificial y los sistemas de armas automatizados para seleccionar y atacar objetivos? Sólo en la primera semana de su ataque, la fuerza aérea israelí dijo que había lanzado 6.000 bombas en toda Gaza, un territorio que Tiene 140 millas cuadradas (una décima parte del tamaño del estado más pequeño de Rhode Island en Estados Unidos) y se encuentra entre los lugares más densamente poblados del mundo. Ha habido muchos miles de explosiones más desde entonces. Israel comanda el ejército más poderoso y de mayor tecnología de Medio Oriente. Meses antes de los horribles ataques de Hamás el 7 de octubre, las FDI anunciaron que iban a incorporar IA en operaciones letales. Como informó Bloomberg el 15 de julio, a principios de este año, las FDI habían comenzado a “usar inteligencia artificial para seleccionar objetivos para ataques aéreos y organizar la logística en tiempos de guerra”. Los funcionarios israelíes dijeron en ese momento que las FDI empleaban un sistema de recomendación de IA para elegir objetivos para ataques aéreos. bombardeo y otro modelo que luego se utilizaría para organizar rápidamente las siguientes incursiones. Las FDI llaman a este segundo sistema Fire Factory y, según Bloomberg, “utiliza datos sobre objetivos aprobados por el ejército para calcular cargas de municiones, priorizar y asignar miles de objetivos a aviones y drones, y proponer un cronograma”. A petición de comentarios, un portavoz de las FDI se negó a discutir el uso militar de la IA en el país. En un año en el que la IA ha dominado los titulares de todo el mundo, este elemento del conflicto ha sido curiosamente subexaminado. Dadas las innumerables cuestiones prácticas y éticas que siguen rodeando a esta tecnología, se debe presionar a Israel sobre cómo está implementando la IA. «Los sistemas de IA son notoriamente poco fiables y frágiles, especialmente cuando se colocan en situaciones que son diferentes de sus datos de entrenamiento», dijo Paul Scharre. , vicepresidente del Centro para una Nueva Seguridad Estadounidense y autor de “Cuatro campos de batalla: el poder en la era de la inteligencia artificial”. Scharre dijo que no estaba familiarizado con los detalles del sistema específico que las FDI podrían estar usando, pero que la IA y la automatización que ayudaron en los ciclos de selección de objetivos probablemente se usarían en escenarios como la búsqueda de personal y material de Hamas por parte de Israel en Gaza. El uso de la IA en el campo de batalla está avanzando rápidamente, dijo, pero conlleva riesgos significativos. “Cualquier IA que esté involucrada en decisiones de selección de objetivos, un riesgo importante es que acierte al objetivo equivocado”, dijo Scharre. «Podría estar causando víctimas civiles o atacando objetivos amigos y causando fratricidio». Una de las razones por las que es algo sorprendente que no hayamos visto más discusión sobre el uso de IA militar por parte de Israel es que las FDI han estado promocionando su inversión y adopción de la IA durante años. En 2017, el brazo editorial de las FDI proclamó que “las FDI ven la inteligencia artificial como la clave para la supervivencia moderna”. En 2018, las FDI se jactaron de que sus “máquinas están siendo más astutas que los humanos”. En ese artículo, la entonces directora de Sigma, la rama de las FDI dedicada a la investigación, el desarrollo y la implementación de la IA, la teniente coronel Nurit Cohen Inger, escribió que “Cada cámara, cada tanque y cada soldado produce información de forma regular. «Entendemos que hay capacidades que una máquina puede adquirir y que un hombre no puede», continuó Nurit. “Estamos introduciendo poco a poco la inteligencia artificial en todas las áreas de las FDI, desde la logística y la mano de obra hasta la inteligencia”. Las FDI llegaron incluso a llamar a su último conflicto con Hamás en Gaza, en 2021, la “primera guerra de inteligencia artificial”, con Los líderes de las FDI promocionan las ventajas que su tecnología confiere en la lucha contra Hamás. «Por primera vez, la inteligencia artificial fue un componente clave y un multiplicador de poder en la lucha contra el enemigo», dijo un alto oficial del Cuerpo de Inteligencia de las FDI al Jerusalem Post. Un comandante de la unidad de inteligencia artificial y ciencia de datos de las FDI dijo que los sistemas de inteligencia artificial habían ayudado al ejército a apuntar y eliminar a dos líderes de Hamas en 2021, según el Post. Las FDI dicen que los sistemas de IA se han integrado oficialmente en operaciones letales desde principios de este año. Dice que los sistemas permiten a los militares procesar datos y localizar objetivos más rápido y con mayor precisión, y que cada objetivo es revisado por un operador humano. Sin embargo, los académicos del derecho internacional en Israel han expresado su preocupación sobre la legalidad del uso de tales herramientas, y los analistas temen que representen un avance hacia armas más completamente autónomas y advierten que existen riesgos inherentes al entregar sistemas de objetivos a la IA. Después de todo, muchas IA Los sistemas son cada vez más cajas negras cuyos algoritmos no se comprenden bien y están ocultos a la vista del público. En un artículo sobre la adopción de la IA por parte de las FDI para el Instituto Lieber, los académicos de derecho de la Universidad Hebrea Tal Mimran y Lior Weinstein enfatizan los riesgos de depender de sistemas automatizados opacos capaces de provocar la pérdida de vidas humanas. (Cuando Mimran sirvió en las FDI, revisó los objetivos para asegurarse de que cumplieran con el derecho internacional). “Mientras las herramientas de IA no sean explicables”, escriben Mimran y Weinstein, “en el sentido de que no podemos entender completamente por qué alcanzaron un cierto En conclusión, ¿cómo podemos justificarnos a nosotros mismos si debemos confiar en la decisión de la IA cuando hay vidas humanas en juego? Continúan: “Si uno de los ataques producidos por la herramienta de IA causa un daño significativo a civiles no involucrados, ¿quién debería asumir la responsabilidad de la decisión?” Una vez más, las FDI no me explicaron exactamente cómo están utilizando la IA, y el funcionario le dijo a Bloomberg que un humano revisó la salida del sistema, pero que solo tomó unos minutos hacerlo. (“Lo que antes tomaba horas ahora toma minutos, con unos minutos más para la revisión humana”, dijo el jefe de transformación digital del ejército). Hay una serie de preocupaciones aquí, dado lo que sabemos sobre el estado actual de la técnica. de los sistemas de IA, y es por eso que vale la pena presionar a las FDI para que revelen más sobre cómo los utilizan actualmente. Por un lado, los sistemas de IA permanecen codificados con sesgos y, si bien a menudo son buenos para analizar grandes cantidades de datos, rutinariamente producen resultados propensos a errores cuando se les pide que extrapolen a partir de esos datos. “Una diferencia realmente fundamental entre la IA y un analista humano al que se le asigna exactamente la misma tarea”, dijo Scharre, “es que los humanos hacen un muy buen trabajo al generalizar a partir de un pequeño número de ejemplos a situaciones novedosas, y los sistemas de inteligencia artificial tienen muchas dificultades para generalizarse a situaciones novedosas”. Un ejemplo: incluso se ha demostrado una y otra vez que incluso la tecnología de reconocimiento facial supuestamente de vanguardia, como la utilizada por los departamentos de policía estadounidenses, es menos precisa a la hora de identificar a las personas. de color, lo que resulta en que los sistemas señalen a ciudadanos inocentes y lleven a arrestos injustos. Además, cualquier sistema de inteligencia artificial que busque automatizar (y acelerar) la selección de objetivos aumenta la posibilidad de que los errores cometidos en el proceso sean más difíciles de discernir. Y si los militares mantienen en secreto el funcionamiento de sus sistemas de inteligencia artificial, no hay manera de evaluar el tipo de errores que están cometiendo. «Creo que los militares deberían ser más transparentes en la forma en que evalúan o abordan la IA», dijo Scharre. “Una de las cosas que hemos visto en los últimos años en Libia o Ucrania es una zona gris. Habrá acusaciones de que se está utilizando IA, pero los algoritmos o los datos de entrenamiento son difíciles de descubrir, y eso hace que sea muy difícil evaluar lo que están haciendo los militares”. Incluso con esos errores incorporados en el código de eliminación, la IA podría, mientras tanto, prestar un barniz de credibilidad a objetivos que de otro modo no serían aceptables para los operadores de base. Finalmente, los sistemas de IA pueden crear una falsa sensación de confianza, que tal vez fue evidente en cómo, a pesar de tener el mejor sistema de inteligencia artificial de su clase, Con el sistema de vigilancia vigente en Gaza, Israel no detectó la planificación de la brutal y altamente coordinada masacre del 7 de octubre. Como señaló Peter Apps de Reuters: “El 27 de septiembre, apenas una semana antes de que los combatientes de Hamás lanzaran el mayor ataque sorpresa contra Israel desde la guerra de Yom Kippur de 1973, los funcionarios israelíes tomaron la presidencia del comité militar de la OTAN en la frontera de Gaza para demostrar su uso de inteligencia artificial y vigilancia de alta tecnología. … Desde aviones teledirigidos que utilizan software de reconocimiento facial hasta puestos de control fronterizos y escuchas electrónicas de las comunicaciones, la vigilancia israelí de Gaza se considera ampliamente entre los esfuerzos más intensos y sofisticados que existen”. Sin embargo, nada de eso ayudó a detener a Hamás. “El error ha sido, en el las últimas dos semanas, diciendo que se trataba de un fallo de inteligencia. No lo fue, fue un fracaso político”, dijo Antony Loewenstein, periodista independiente y autor de “El Laboratorio de Palestina” que estuvo basado en Jerusalén Oriental entre 2016 y 2020. “El foco de Israel había estado en Cisjordania, creyendo que había rodeado a Gaza. Creían erróneamente que las tecnologías más sofisticadas por sí solas lograrían mantener controlada y ocupada a la población palestina”. Ésa puede ser una de las razones por las que Israel se ha mostrado reacio a discutir sus programas de IA. Otro puede ser que un argumento clave de venta de la tecnología a lo largo de los años, que la IA ayudará a elegir objetivos con mayor precisión y reducir las víctimas civiles, actualmente no parece creíble. «La afirmación de la IA se ha centrado en apuntar a las personas con más éxito», dijo Loewenstein. “Pero no ha sido un objetivo concreto en absoluto; Hay un gran número de civiles muriendo. Un tercio de las viviendas en Gaza han sido destruidas. Eso no es apuntar con precisión”. Y eso es un temor aquí: que la IA pueda usarse para acelerar o habilitar la capacidad destructiva de una nación que convulsiona de rabia, con errores potencialmente mortales en sus algoritmos que quedan oscurecidos por la niebla de la guerra.

Source link

Funciona con WordPress & Tema de Anders Norén