Todo lo que necesitas saber sobre tecnología

Etiqueta: abrirte

Un 50% más de profesionales clasifican la privacidad de los datos como una de las principales preocupaciones de GenAI en 2024

Un 50% más de profesionales clasifican la privacidad de los datos como una de las principales preocupaciones de GenAI en 2024

Las preocupaciones sobre la privacidad de los datos en relación con la IA generativa han aumentado, según un nuevo informe de Deloitte. Mientras que el año pasado sólo el 22% de los profesionales la situaban entre sus tres principales preocupaciones, este año la cifra ha aumentado hasta el 72%. Las siguientes preocupaciones éticas de GenAI fueron la transparencia y la procedencia de los datos, y el 47% y el 40% de los profesionales las clasificaron entre las tres principales este año. Mientras tanto, sólo el 16% expresó preocupación por el desplazamiento de puestos de trabajo. El personal siente cada vez más curiosidad por saber cómo funciona la tecnología de inteligencia artificial, especialmente en lo que respecta a los datos confidenciales. Un estudio de septiembre realizado por HackerOne encontró que casi la mitad de los profesionales de seguridad creen que la IA es riesgosa, y muchos ven los datos de entrenamiento filtrados como una amenaza. De manera similar, el 78 % de los líderes empresariales clasificaron “seguro y protegido” como uno de sus tres principios tecnológicos éticos principales, lo que representa un aumento del 37 % con respecto a 2023, lo que demuestra aún más cómo la cuestión de la seguridad es una prioridad. Los resultados de la encuesta provienen del informe “Estado de la ética y la confianza en la tecnología” de 2024 de Deloitte, que encuestó a más de 1.800 profesionales técnicos y empresariales de todo el mundo sobre los principios éticos que aplican a las tecnologías, específicamente a GenAI. Es probable que los incidentes de seguridad de IA de alto perfil atraigan más atención. Poco más de la mitad de los encuestados en los informes de este año y del año pasado dijeron que las tecnologías cognitivas como la IA y la GenAI plantean los mayores riesgos éticos en comparación con otras tecnologías emergentes, como la realidad virtual, la computación cuántica, vehículos autónomos y robótica. Este nuevo enfoque puede estar relacionado con una mayor conciencia de la importancia de la seguridad de los datos debido a incidentes muy publicitados, como cuando un error en ChatGPT de OpenAI expuso datos personales de alrededor del 1,2% de los suscriptores de ChatGPT Plus, incluidos nombres, correos electrónicos y datos parciales. detalles de pago. La confianza en el chatbot seguramente también se vio erosionada por la noticia de que los piratas informáticos habían irrumpido en un foro en línea utilizado por los empleados de OpenAI y habían robado información confidencial sobre los sistemas de inteligencia artificial de la empresa. VER: Política de ética de la inteligencia artificial «La disponibilidad y adopción generalizada de GenAI puede haber aumentado la familiaridad y la confianza de los encuestados en la tecnología, generando optimismo sobre su potencial para el bien», dijo Beena Ammanath, Global Deloitte AI Institute y líder de Trustworthy AI, en un presione soltar. «Los continuos sentimientos de cautela sobre sus riesgos aparentes subrayan la necesidad de marcos éticos específicos y evolucionados que permitan un impacto positivo». Más cobertura de IA de lectura obligada La legislación sobre IA está afectando la forma en que operan las organizaciones en todo el mundo Naturalmente, más personal está usando GenAI en el trabajo que el año pasado, y el porcentaje de profesionales que informan que lo usan internamente aumentó un 20% en los informes año tras año de Deloitte. . Un enorme 94% dijo que sus empresas lo han inculcado en los procesos de alguna manera. Sin embargo, la mayoría indicó que todavía se encuentra en la fase piloto o que su uso es limitado, y sólo el 12% dijo que su uso está generalizado. Esto se alinea con una investigación reciente de Gartner que encontró que la mayoría de los proyectos GenAI no pasan de la etapa de prueba de concepto. VER: IBM: Mientras aumenta la adopción empresarial de la inteligencia artificial, las barreras limitan su uso Independientemente de su omnipresencia, los tomadores de decisiones quieren asegurarse de que su uso de la IA no les cause problemas, particularmente en lo que respecta a la legislación. La razón mejor calificada para contar con políticas y directrices tecnológicas éticas fue el cumplimiento, citada por el 34% de los encuestados, mientras que las sanciones regulatorias estuvieron entre las tres principales preocupaciones reportadas si no se siguen dichos estándares. La Ley de IA de la UE entró en vigor el 1 de agosto e impone requisitos estrictos a los sistemas de IA de alto riesgo para garantizar la seguridad, la transparencia y el uso ético. El incumplimiento podría dar lugar a multas que van desde 35 millones de euros (38 millones de dólares) o el 7% de la facturación global hasta 7,5 millones de euros (8,1 millones de dólares) o el 1,5% de la facturación. Más de cien empresas, incluidas Amazon, Google, Microsoft y OpenAI, ya firmaron el Pacto de IA de la UE y se ofrecieron voluntariamente para comenzar a implementar los requisitos de la ley antes de los plazos legales. Esto demuestra su compromiso con el despliegue responsable de la IA al público y les ayuda a evitar futuros desafíos legales. De manera similar, en octubre de 2023, Estados Unidos dio a conocer una Orden Ejecutiva sobre IA que presenta una amplia orientación sobre el mantenimiento de la seguridad, los derechos civiles y la privacidad dentro de las agencias gubernamentales, al tiempo que promueve la innovación y la competencia en IA en todo el país. Si bien no es una ley, muchas empresas operativas en EE. UU. pueden realizar cambios de política en respuesta para garantizar el cumplimiento de la evolución de la supervisión federal y las expectativas públicas sobre la seguridad de la IA. VER: Los países del G7 establecen un código de conducta voluntario sobre IA La Ley de IA de la UE ha tenido influencia en Europa, y el 34% de los encuestados europeos dijeron que sus organizaciones habían realizado cambios en el uso de la IA durante el último año en respuesta. Sin embargo, el impacto es más generalizado, ya que el 26% de los encuestados del sur de Asia y el 16% de los encuestados de América del Norte y del Sur también hicieron cambios debido a la promulgación de la ley. Además, el 20% de los encuestados con sede en EE. UU. dijeron que habían realizado cambios en sus organizaciones en respuesta a la orden ejecutiva. Una cuarta parte de los encuestados del sur de Asia, el 21% de América del Sur y el 12% de Europa dijeron lo mismo. «Se reconoce que las tecnologías cognitivas como la IA tienen el mayor potencial para beneficiar a la sociedad y el mayor riesgo de uso indebido», escribieron los autores del informe. “La adopción acelerada de GenAI puede estar superando la capacidad de las organizaciones para gestionar la tecnología. Las empresas deben priorizar tanto la implementación de estándares éticos para GenAI como una selección significativa de casos de uso a los que se aplican las herramientas GenAI”.

DuckDuckGo se suma al chat con inteligencia artificial y promete mayor anonimato

DuckDuckGo se suma al chat con inteligencia artificial y promete mayor anonimato

Imagen: Andy Wolber/TechRepublic, captura de pantalla de Duck.ai DuckDuckGo, una empresa de búsqueda, lanzó un servicio gratuito y anónimo de chat con IA en junio de 2024. AI Chat se une a DuckAssist, que genera respuestas basadas en Wikipedia, como una forma de explorar temas con IA. AI Chat funciona con el proceso de solicitud y respuesta ampliamente utilizado popularizado por ChatGPT de OpenAI y Gemini de Google. Pero AI Chat de DuckDuckGo busca minimizar los posibles problemas de privacidad por diseño. AI Chat ofrece acceso anónimo: no se necesita cuenta, nombre de usuario, dirección de correo electrónico o contraseña. DuckDuckGo promete que sus indicaciones e información no se utilizarán para entrenar ninguno de los modelos de IA. Esto significa que no debe preocuparse de que el contenido de sus consultas se incorpore en una respuesta entregada a otras personas. A partir de septiembre de 2024, AI Chat le permite elegir chatear con cualquiera de los cuatro modelos de chat: GPT-4o mini de OpenAI. Claude 3 Haiku de Anthropic. Llama 3.1 70B, un modelo de código abierto de Meta. Mixtral 8x7B, un modelo de código abierto de Mistral AI, una empresa francesa. Puede cambiar entre modelos en cualquier momento, lo que le permite comparar respuestas. En general, el chat de IA de DuckDuckGo proporciona una forma sencilla y gratuita de interactuar con cuatro modelos de lenguaje grandes diferentes de forma anónima. Comience a usar el chat de IA de DuckDuckGo Abra un navegador en un teléfono, computadora o tableta conectada a Internet, luego: Vaya a duck.ai (o duckduckgo.com/chat) y seleccione el botón Comenzar. En su primera visita a Duck.ai, seleccione Comenzar. A continuación, elija un modelo de chat. La mayoría de las personas querrán aceptar la opción predeterminada de GPT-4o mini de OpenAI. (Puede cambiar y experimentar con un modelo diferente en cualquier momento). Elija entre los modelos GPT-4o mini, Claude 3 Haiku, Llama 3.1 70B o Mixtral 8x7B. Revisa la política de privacidad y los términos de uso, y luego selecciona el botón Acepto si los términos son aceptables. Revisa y acepta los términos de uso. Luego puedes usar AI Chat como lo harías con cualquier otro sistema de chat de IA: ingresa tu mensaje, espera la respuesta y luego continúa el chat como desees. Accede a AI Chat con búsqueda o botones DuckDuckGo también te permite cambiar a un AI Chat desde una búsqueda. En una página de resultados de búsqueda, selecciona el elemento de menú Chat para convertir tu consulta de búsqueda en un mensaje de AI Chat. El texto de tus términos de búsqueda se colocará en el cuadro de mensaje, para que puedas modificarlo antes de enviar el mensaje al sistema. Puedes cambiar a un AI Chat desde cualquier página de resultados de búsqueda de DuckDuckGo (izquierda) o usar un comando de botón de DuckDuckGo, como !ai, antes de tu mensaje (derecha). Los atajos de búsqueda de botones de DuckDuckGo también ofrecen las opciones !ai y !chat. Coloca cualquiera de estos atajos al comienzo de una búsqueda de DuckDuckGo para transmitir el contenido al sistema AI Chat, en lugar de una búsqueda estándar. DuckDuckGo ofrece miles de bangs que te permiten enviar tu búsqueda no solo a los servicios de DuckDuckGo sino también a terceros, como Google (!g) o Wikipedia (!w). Más cobertura de IA imprescindible Opciones de chat de IA: copiar, cambiar, borrar o continuar Selecciona el ícono de copia (en la parte superior derecha de cada respuesta) para copiar el texto de una respuesta al portapapeles de tu dispositivo. Luego, puedes pegar el contenido en una nota, documento, correo electrónico o campo de texto. Dado que tus indicaciones y respuestas no están conectadas a una cuenta, asegúrate de copiar y luego guardar en otro lugar cualquier respuesta a la que quieras hacer referencia más tarde. A la derecha del ícono de copia hay un botón de rehacer, un círculo con una flecha, que puedes usar para hacer que el sistema genere otra respuesta a tu indicación. Copia una respuesta al portapapeles (arriba a la derecha) y pégala en otro lugar para guardarla, cambia a un modelo de chat diferente (arriba a la izquierda) o borra la conversación para comenzar de nuevo (abajo). ¿No estás satisfecho con la respuesta que recibes de un modelo? Cambiar a un modelo de chat de IA diferente: selecciona el icono de Configuración a la derecha del nombre del modelo seleccionado, elige el modelo que desees y luego selecciona el botón «Iniciar un nuevo chat». Experimenta con los modelos disponibles y pide a cada uno una variedad de preguntas y tareas. Notarás que no solo los detalles de las respuestas serán diferentes, sino que también puede variar el formato. ¿Terminaste con un hilo o estás listo para discutir un tema diferente? Selecciona el icono de fuego junto al cuadro de mensaje para borrar la conversación. Esto borra todo el contenido de tu chat, así que asegúrate de haber copiado (y guardado) cualquier contenido generado del chat de antemano. A diferencia de una búsqueda estándar, el chat de IA te permite hacer preguntas de seguimiento. Finalmente, una diferencia importante entre la búsqueda estándar y el chat de IA es que puedes continuar la conversación y hacer preguntas de seguimiento. Por ejemplo, una búsqueda típica de DuckDuckGo proporcionará un conjunto de enlaces y posiblemente información clave. Si quieres un conjunto diferente de enlaces, deberás volver a realizar tu búsqueda. Con AI Chat, puedes hacer una serie de preguntas de seguimiento para pedirle al sistema que explique un detalle en particular o proporcione opciones adicionales. Limitaciones y alternativas de AI Chat Una limitación notable de AI Chat y los cuatro modelos disponibles: carecen de acceso a contenido de Internet actual. Las respuestas se limitan a los datos disponibles a la fecha de entrenamiento. Por lo tanto, cuando quieras saber información sobre eventos próximos o recientes, cambia a una búsqueda estándar. Algunas alternativas accesibles desde el navegador web a AI Chat son sistemas como: ChatGPT de OpenAI. Copilot de Microsoft. Gemini de Google. Claude de Anthropic. Llama de Meta. Otra alternativa es descargar, instalar y configurar un gran sistema de modelos de lenguaje, como Jan, Ollama o GPT4All de Nomic. Aquellos que quieran tener acceso a los sistemas de chat de IA mejor calificados probablemente preferirán pagar (alrededor de $20 por mes en cada caso) por ChatGPT Plus, Gemini Advanced o Claude Pro.

La demanda contra OpenAI del New York Times da un giro extraño

En un giro bastante desconcertante de los acontecimientos, OpenAI presentó una solicitud para desestimar aspectos de la demanda del New York Times. En su presentación, OpenAI sostiene que el periódico se dedicó a «piratear» ChatGPT y otros sistemas de inteligencia artificial. Según OpenAI, el Times empleó métodos engañosos, violando los términos de uso de OpenAI, para manipular estos sistemas de IA para reproducir material protegido por derechos de autor. El quid de la cuestión del argumento de OpenAI a favor del despido gira en torno al presunto uso indebido de su tecnología por parte del Times. OpenAI afirma que esto fue hecho por un individuo anónimo al que se hace referencia como «arma a sueldo». OpenAI afirma en la demanda que las acciones del New York Times no se alinean con la integridad periodística y la verdad revelará que el periódico intentó sabotear los productos de OpenAI. Respuesta del New York Times En respuesta a estas acusaciones, el New York Times ha negado haber actuado mal. El abogado del periódico, Ian Crosby, rechazó las acusaciones de piratería informática de OpenAI. Confirmó que el Times utilizó los productos de OpenAI para descubrir pruebas de infracción de derechos de autor. El Times sostiene que no violó ninguna ley contra la piratería informática al investigar posibles violaciones de derechos de autor. La demanda, presentada en diciembre, alega que OpenAI utilizó ilegalmente millones de artículos del New York Times sin la autorización adecuada. El Times sostiene que estos artículos se utilizaron para entrenar chatbots de IA, infringiendo así sus derechos de autor. Esta disputa legal subraya la creciente tensión entre los medios de comunicación tradicionales y las empresas de tecnología por el uso de material protegido por derechos de autor en la formación en IA. La demanda en cuestión En el centro de la cuestión se encuentra la cuestión de si el entrenamiento de modelos de IA utilizando material protegido por derechos de autor constituye un uso legítimo según la ley de derechos de autor. OpenAI sostiene que sus sistemas de IA hacen un uso justo del material protegido por derechos de autor y sugiere que demandas como estas representan una amenaza para la floreciente industria de la IA, que tiene un potencial económico significativo. A medida que se desarrolla la batalla legal, se espera que ambas partes presenten sus respectivos argumentos con respecto a la cuestión del uso legítimo. OpenAI sigue confiando en que, en última instancia, prevalecerá en los tribunales basándose en los méritos del argumento del uso legítimo. El resultado de este caso podría tener implicaciones de gran alcance para el futuro del desarrollo de la IA y su interacción con material protegido por derechos de autor.

Source link

El New York Times demanda a OpenAI en un caso histórico

Algunos dicen que era sólo cuestión de tiempo, pero el New York Times ha emprendido acciones legales contra OpenAI por infracción de derechos de autor. Esto sólo se suma a la ola de desconfianza que existe con respecto a lo que se utiliza para entrenar la IA. Actualmente, Midjourney está siendo criticado por blanquear el trabajo de los artistas, sin su conocimiento, consentimiento o compensación. Parece que OpenAI volverá a estar en manos del sistema legal en lo que respecta a la palabra escrita. 🧵 La histórica demanda NYT contra @OpenAI presentada esta mañana, desglosada por mí, un abogado de propiedad intelectual e inteligencia artificial, asesor general y entusiasta y entusiasta de la tecnología desde hace mucho tiempo. Tl;dr: Es el mejor caso hasta ahora que alega que la IA generativa es una infracción de derechos de autor. Hilo. 👇 pic.twitter.com/Zqbv3ekLWt — Cecilia Ziniti (@CeciliaZin) 27 de diciembre de 2023 La demanda La demanda del New York Times exige que los acusados ​​paguen los daños legales y del mundo real. Si bien no hay una cifra definida en este caso, podemos suponer que se trata de cifras realmente enormes. Afirma que OpenAI ha utilizado su contenido para entrenar sus chatbots. The Time afirma que el uso de esta información sin consentimiento lo convierte en un competidor directo y confunde la verdad. El caso afirma que The Times se había acercado a OpenAI y Microsoft anteriormente en abril de 2023, pero lo dejamos en lectura. El Times había expresado su preocupación por el uso no autorizado de sus materiales y las negociaciones propuestas. El objetivo de las negociaciones era llegar a una resolución que fuera buena para ambas partes. Sin embargo, no lograron llegar a un acuerdo. Entonces, esto resultó en el caso judicial actual. En la demanda contra OpenAI del New York Times, se puede ver cuán compleja puede ser la relación entre los datos de entrenamiento y la salida. Por un lado, descubren que se puede inducir a ChatGPT a producir contenido exacto de artículos famosos del Times; por otro, muestran que también alucina con artículos falsos. pic.twitter.com/cY7cyZjd8r – Ethan Mollick (@emollick) 27 de diciembre de 2023 Microsoft actualmente se niega a comentar sobre el estado actual del caso. Lindsey Held, portavoz de OpenAI, dijo que estaban decepcionados porque sentían que las cosas habían sido constructivas. Continuó diciendo que OpenAI está dando prioridad a los derechos de los creadores de contenido y sus propietarios. Dijeron que mantenían la esperanza de encontrar una solución mutuamente beneficiosa al problema. Held también señala cómo han resuelto problemas con otros editores. Esta batalla legal puede tener algunos beneficios. Puede ayudar a establecer una barrera estándar y legal para la tecnología de inteligencia artificial en lo que respecta a la generación. Este es contenido que se crea a través del aprendizaje de extensos conjuntos de datos. Ya existe la preocupación de que la IA tenga demasiada influencia sobre la escritura en el campo del periodismo. Independientemente de cómo se regule su uso, podría usarse más como una herramienta para ayudar a los creadores de contenido en lugar de usarlo exclusivamente para crear contenido.


Source link

Funciona con WordPress & Tema de Anders Norén