El director ejecutivo de la startup tecnológica australiana Dovetail ha respaldado la necesidad de una regulación de la IA para garantizar que la tecnología en auge no se utilice para «fines nefastos». Sin embargo, dijo que los aspectos prácticos del cumplimiento determinarán qué tan fácil o difícil será cumplirlo para las empresas que implementan IA. Benjamin Humphreys ha ampliado la plataforma de información del cliente Dovetail en los últimos siete años a 120 personas con sede en Australia y EE. UU. Le dijo a TechRepublic que era necesario que los gobiernos tomaran alguna medida para salvaguardar «el bien mayor de la sociedad» contra algunos posibles casos de uso de AI. Si bien dijo que es poco probable que la propuesta de Australia de establecer barreras de seguridad obligatorias para la IA obstaculice la innovación en Dovetail, debido al enfoque de la propuesta en la IA de alto riesgo, cualquier medida que requiera revisiones humanas exhaustivas de los resultados de la IA a escala dentro de los productos tecnológicos podría resultar prohibitiva si se convierte en un requisito. . VER: Explorar las barreras obligatorias propuestas por Australia para la IA Regulación de la IA necesaria para proteger a los ciudadanos del peor potencial de la IA Humphreys, cuya plataforma Dovetail utiliza los modelos de IA de Anthropic para proporcionar a los clientes una visión más profunda de los datos de sus clientes, dijo que la regulación de la IA era bienvenida en ciertos países de alto nivel. áreas de riesgo o casos de uso. Como ejemplo, citó la necesidad de regulaciones para evitar que la IA discrimine a los solicitantes de empleo basándose en datos de capacitación sesgados. «Soy una persona tecnológica, pero en realidad estoy en contra de que la tecnología perturbe el bien de la humanidad», dijo. “¿Debería regularse la IA por el bien de la sociedad? Yo diría que sí, definitivamente; Creo que da miedo lo que puedes hacer, especialmente con la capacidad de generar fotografías y cosas así”, dijo. Se espera que las nuevas regulaciones de IA propuestas por Australia den como resultado la introducción de barreras para el desarrollo de la IA en entornos de alto riesgo. Estas medidas incluyen implementar procesos de gestión de riesgos y probar modelos de IA antes de su lanzamiento. Dijo que es más probable que afecten a las empresas en entornos de alto riesgo. «No creo que vaya a tener un impacto enorme en cuánto se puede innovar», dijo Humphreys. VER: Gartner cree que los líderes australianos de TI deberían adoptar la IA a su propio ritmo. “Creo que la regulación se centra en áreas de alto riesgo… y de todos modos ya tenemos que cumplir con todo tipo de regulaciones. Eso incluye la Ley de Privacidad de Australia, y también hacemos muchas cosas en la UE, por lo que tenemos que lidiar con el RGPD. Así que no es diferente en ese sentido”, explicó. Humphreys dijo que la regulación era importante porque las organizaciones que desarrollaban IA tenían sus propios incentivos. Citó las redes sociales como un ejemplo relacionado de un área en la que la sociedad podría beneficiarse de una regulación bien pensada, ya que cree que, dado su historial, “las redes sociales tienen mucho de qué responder”. “Las grandes empresas tecnológicas tienen incentivos muy diferentes a los que tenemos nosotros como ciudadanos”, señaló. «Da bastante miedo cuando tienes a empresas como Meta, Google y Microsoft y otras con fuertes incentivos comerciales y mucho capital creando modelos que van a servir a sus propósitos». El cumplimiento legal de la IA dependerá de la especificidad de las regulaciones. El proceso de retroalimentación para las barreras de seguridad obligatorias propuestas por el gobierno australiano se cerró el 4 de octubre. El impacto de las regulaciones de IA resultantes podría depender de qué tan específicas sean las medidas de cumplimiento y cuántos recursos se necesitan para permanecer. compatible, afirmó Humphreys. “Si una norma obligatoria dijera que, cuando se le proporciona esencialmente una respuesta de IA, la interfaz del software debe permitir al usuario verificar la respuesta, entonces creo que es algo que es relativamente fácil de cumplir. Eso es algo humano en el circuito”, dijo Humphreys. Dovetail ya ha integrado esta característica en su producto. Si los usuarios consultan los datos de los clientes para obtener una respuesta generada por IA, Humphreys dijo que la respuesta se etiqueta como generada por IA. Y los usuarios reciben referencias al material fuente cuando es posible, para que puedan verificar las conclusiones por sí mismos. VER: Por qué la IA generativa se está convirtiendo en una fuente de ‘errores costosos’ para los compradores de tecnología «Pero si la regulación dijera, oye, ya sabes, cada respuesta que proporcione tu software debe ser revisada por un empleado de Dovetail, obviamente eso no es así». «Será algo que podremos cumplir, porque hay miles de búsquedas de este tipo que se ejecutan en nuestro software cada hora», afirmó. En una presentación sobre las barreras obligatorias compartida con TechRepublic, la empresa de tecnología Salesforce sugirió que Australia adopte un enfoque basado en principios; Dijo que compilar una lista ilustrativa como la que se ve en la UE y Canadá podría capturar inadvertidamente casos de uso de bajo riesgo, lo que aumentaría la carga de cumplimiento. Más cobertura de Australia Cómo Dovetail está integrando la IA responsable en su plataforma Dovetail se ha asegurado de implementar la IA de manera responsable en su producto. Humphreys dijo que, en muchos casos, esto es ahora lo que esperan los clientes, ya que han aprendido a no confiar plenamente en los modelos de IA y sus resultados. Consideraciones de infraestructura para una IA responsable Dovetail utiliza el servicio AWS Bedrock para IA generativa, así como Anthropic LLM. Humphreys dijo que esto les da a los clientes la confianza de que sus datos están aislados de otros clientes y protegidos, y que no hay riesgo de fuga de datos. Dovetail no aprovecha las entradas de datos de los clientes para ajustar los modelos de IA. Los resultados generados por IA están etiquetados y se pueden verificar. Desde la perspectiva de la experiencia del usuario, todos los resultados generados por IA de Dovetail están etiquetados como tales, para que queden claro para los usuarios. En los casos en que es posible, los clientes también reciben citas en las respuestas generadas por IA, de modo que el usuario pueda investigar más a fondo cualquier información asistida por IA. Los resúmenes generados por IA son editables por usuarios humanos. Las respuestas generadas por IA de Dovetail pueden ser editadas activamente por humanos en el bucle. Por ejemplo, si se genera un resumen de una videollamada a través de su función de resumen de transcripción, los usuarios que reciben el resumen pueden editarlo si identifican que existe un error. Satisfacer las expectativas del cliente con un ser humano al tanto Humphreys dijo que los clientes ahora esperan tener cierta supervisión de IA o un ser humano al tanto. «Eso es lo que espera el mercado, y creo que es una buena medida de protección, porque si estás sacando conclusiones de nuestro software para informar tu estrategia de negocio o tu hoja de ruta o lo que sea que estés haciendo, querrás asegurarte de que que esas conclusiones son precisas”, dijo. Humphreys dijo que es posible que la regulación de la IA deba ser de alto nivel para cubrir la gran variedad de casos de uso. «Necesariamente, tendrá que ser de un nivel bastante alto para cubrir todos los diferentes casos de uso», dijo Humphreys. “Los casos de uso de la IA están tan extendidos que creo que les resultará muy difícil [The Government] escribir algo que sea lo suficientemente específico. Para ser honesto, es un poco un campo minado”.