El domingo 4 de septiembre marcó un hito importante en la historia de Internet: el cumpleaños número 25 de Google. Con miles de millones de consultas de búsqueda enviadas cada día, es difícil recordar cómo vivimos sin el motor de búsqueda. ¿Qué tuvo Google que lo llevó a revolucionar el acceso a la información? ¿Y la inteligencia artificial (IA) la hará obsoleta o la mejorará? Veamos cómo ha cambiado nuestro acceso a la información a lo largo de las décadas y hacia dónde podría conducirnos a medida que la IA avanzada y la Búsqueda de Google se entrelazan cada vez más. Década de 1950: las bibliotecas públicas como centros comunitarios En los años posteriores a la Segunda Guerra Mundial, se aceptó generalmente que una ciudad exitosa de posguerra era aquella que podía proporcionar capacidades cívicas, y eso incluía el acceso abierto a la información. Así, en la década de 1950 la información en los países occidentales procedía principalmente de las bibliotecas locales. Los propios bibliotecarios eran una especie de “motor de búsqueda humano”. Respondieron consultas telefónicas de empresas y respondieron cartas, ayudando a las personas a encontrar información de forma rápida y precisa. Las bibliotecas eran más que simples lugares para tomar prestados libros. Eran los lugares donde los padres acudían en busca de información de salud, donde los turistas pedían consejos de viaje y donde las empresas buscaban consejos de marketing. La búsqueda fue gratuita, pero requirió el apoyo de los bibliotecarios, así como una cantidad significativa de trabajo y procesos basados ​​en catálogos. Las preguntas que ahora podemos resolver en minutos tardaron horas, días o incluso semanas en responderse. Década de 1990: el auge de los servicios de búsqueda pagos En la década de 1990, las bibliotecas se habían ampliado para incluir computadoras personales y acceso en línea a servicios de información. Las empresas de búsqueda comercial prosperaron porque las bibliotecas podían acceder a la información a través de costosos servicios de suscripción. Estos sistemas eran tan complejos que sólo los especialistas capacitados podían realizar búsquedas y los consumidores pagaban por los resultados. Dialog, desarrollado en Lockheed Martin en la década de 1960, sigue siendo uno de los mejores ejemplos. Hoy afirma brindar a sus clientes acceso «a más de 1.700 millones de registros en más de 140 bases de datos de literatura revisada por pares». Otro sistema de búsqueda comercial, FT PROFILE del Financial Times, permitió el acceso a artículos de todos los periódicos de gran formato del Reino Unido durante un período de cinco años. Pero buscar con él no fue sencillo. Los usuarios tenían que recordar comandos escritos para seleccionar una colección, usando palabras específicas para reducir la lista de documentos devueltos. Los artículos se ordenaron por fecha, dejando al lector buscar los elementos más relevantes. FT PROFILE hizo que información valiosa fuera rápidamente accesible a personas ajenas a los círculos empresariales, pero a un precio elevado. En la década de 1990, el acceso costaba 1,60 libras esterlinas el minuto. El ascenso de Google Tras el lanzamiento de la World Wide Web en 1993, el número de sitios web creció exponencialmente. Las bibliotecas proporcionaron acceso público a la web y servicios como Vicnet de la Biblioteca Estatal de Victoria ofrecieron acceso de bajo costo para las organizaciones. Los bibliotecarios enseñaron a los usuarios a buscar información en línea y crear sitios web. Sin embargo, los complejos sistemas de búsqueda tuvieron problemas con volúmenes explosivos de contenido y un gran número de nuevos usuarios. En 1994, el libro Gestión de Gigabytes, escrito por tres informáticos de Nueva Zelanda, presentó soluciones a este problema. Desde la década de 1950, los investigadores habían imaginado un motor de búsqueda que fuera rápido, accesible para todos y que clasificara los documentos por relevancia. En la década de 1990, una startup de Silicon Valley comenzó a aplicar este conocimiento: Larry Page y Sergey Brin utilizaron los principios de Gestión de Gigabytes para diseñar la arquitectura icónica de Google. Tras su lanzamiento el 4 de septiembre de 1998, la revolución de Google estaba en marcha. A la gente le encantó la simplicidad del cuadro de búsqueda, así como una presentación novedosa de los resultados que resumían cómo las páginas recuperadas coincidían con la consulta. En términos de funcionalidad, la Búsqueda de Google fue eficaz por varias razones. Utilizó el enfoque innovador de generar resultados contando los enlaces web en una página (un proceso llamado PageRank). Pero lo más importante es que su algoritmo era muy sofisticado; no sólo relacionaba las consultas de búsqueda con el texto de una página, sino también con otro texto vinculado a esa página (esto se llamaba texto ancla). La popularidad de Google superó rápidamente a competidores como AltaVista y Yahoo Search. Con más del 85% de la cuota de mercado actual, sigue siendo el motor de búsqueda más popular. Sin embargo, a medida que la web se expandió, los costos de acceso fueron cuestionados. Aunque ahora los consumidores buscan en Google de forma gratuita, se requiere un pago para descargar ciertos artículos y libros. Muchos consumidores todavía dependen de las bibliotecas, mientras que las propias bibliotecas luchan con los crecientes costos de comprar material para ofrecerlo al público de forma gratuita. ¿Qué traerán los próximos 25 años? Google se ha expandido mucho más allá de la Búsqueda. Gmail, Google Drive, Google Calendar, los dispositivos Pixel y otros servicios muestran que el alcance de Google es enorme. Con la introducción de herramientas de inteligencia artificial, incluido Bard de Google y el recientemente anunciado Gemini (un competidor directo de ChatGPT), Google está listo para revolucionar la búsqueda una vez más. A medida que Google continúe implementando capacidades de IA generativa en la Búsqueda, será común leer un resumen rápido de información en la parte superior de la página de resultados, en lugar de buscar información usted mismo. Un desafío clave será garantizar que las personas no se vuelvan complacientes hasta el punto de confiar ciegamente en los resultados generados. La verificación de hechos con fuentes originales seguirá siendo tan importante como siempre. Después de todo, hemos visto herramientas de inteligencia artificial generativa como ChatGPT en los titulares debido a «alucinaciones» y desinformación. Si los resúmenes de búsqueda inexactos o incompletos no se revisan, o se parafrasean y se presentan sin material fuente, el problema de la desinformación sólo empeorará. Además, incluso si las herramientas de IA revolucionaran la búsqueda, es posible que no logren revolucionar el acceso. A medida que crece la industria de la IA, estamos viendo un cambio hacia el acceso al contenido solo mediante una tarifa o mediante suscripciones pagas. El auge de la IA brinda la oportunidad de revisar las tensiones entre el acceso público y entidades comerciales cada vez más poderosas. Mark Sanderson es profesor de recuperación de información en la Universidad RMIT. Julian Thomas es Profesor Distinguido de Medios y Comunicaciones; Director, Centro de Excelencia ARC para la Sociedad y la Toma de Decisiones Automatizadas, Universidad RMIT. Kieran Hegarty es investigador (sistemas automatizados de toma de decisiones) de la Universidad RMIT. Lisa M Given es profesora de Ciencias de la Información y directora de la Plataforma de Impacto Habilitador del Cambio Social, Universidad RMIT. The Conversation es una fuente independiente y sin fines de lucro de noticias, análisis y comentarios de expertos académicos. © La conversación

Source link