Si Google solo ofrece sus resultados, los artículos originales no recibirían tantas visitas y sus ingresos por publicidad disminuirían radicalmente
Un equipo de investigadores de Google presentó esta semana un nuevo modelo de buscador que en lugar de ofrecer una lista con webs relevantes como hasta ahora, puede escribir su propia respuesta como si fuera un experto en el tema. Este anuncio ha provocado el estupor de parte de la comunidad científica que alerta de los problemas éticos que conlleva esta tecnología.
El buscador de Google se basa en un antiguo algoritmo llamado PageRank que Sergey Brin y Larry Page crearon cuando estudiaban en la universidad de Stanford. PageRank no es hoy el único algoritmo que utiliza Google pero su funcionamiento no ha evolucionado demasiado con los años.
Cuando un usuario hace una búsqueda, el algoritmo hace una lista de contenido que se ordena según su relevancia. Para Google, la relevancia la dan el número y la calidad de los enlaces que se hacen a una página web. Entre ese listado ordenado de webs aparece en general la respuesta a la información que estamos buscando.
El nuevo algoritmo de los investigadores de Google propone un nuevo modelo de búsqueda. El objetivo ya no es hacer una lista de páginas relevantes para que nosotros podamos encontrar la respuesta que buscamos, sino que sea el propio algoritmo el que escriba la respuesta haciendo un resumen de la información que haya recogido de Internet. Este modelo se basa en algoritmo de lenguaje que se llama GPT-3 y que es capaz de generar texto con una calidad similar a la que producimos los humanos.

Google trabaja en ell buscador del futuro
«Los sistemas clásicos de recabar información no responden directamente a las necesidades de información, sino que proporcionan referencias a contenidos (esperemos que fiables)», afirman los autores del estudio.
Estos sistemas proporcionan una lista de respuestas potenciales y es el usuario el que tiene que filtrar los resultados y leer el contenido de los artículos para poder componer en su cabeza la respuesta que estaba buscando.
Aunque los motores de búsqueda en la actualidad son más rápidos y precisos que nunca, los investigadores creen que es hora de un cambio de paradigma. En su estudio afirman que hay que acabar con el modelo tradicional de indexado y clasificación y crear uno nuevo. Este buscador combinaría todo lo bueno del método de documentación anterior con las capacidades de los nuevos algoritmos de lenguaje.
Los investigadores se imaginan un buscador que sea capaz de dar respuestas a los usuarios como si se tratara de un experto reconocido en la materia. En su artículo ponen un ejemplo de búsqueda para ilustrar cómo piensan que debería funcionar.
Si la pregunta fuera: «¿cuáles son los beneficios y los riesgos para la salud del vino tinto?», la respuesta del buscador no debería sonar extraña ni imprecisa, como en ocasiones ocurre con los asistentes de voz como Alexa o Siri, sino que debería sonar natural y concreta, venir de varias fuentes fiables y darnos evidencias sólidas de lo que dice.
Una tecnología aún inmadura
Pero a este buscador del futuro todavía le queda mucho camino por recorrer, los propios investigadores son conscientes de eso y en su artículo explican los avances que tendrían que producirse para llegar al resultado que imaginan. Aunque no explican cómo ni cuándo se van a producir estos avances y los consideran un mero «reto de la investigación».
Por un lado, la tecnología GPT-3 ha avanzado mucho y es capaz de producir textos que no se pueden distinguir de los humanos, pero todavía no pueden sustituir a los expertos. No hay en la actualidad algoritmos capaces de entender el texto entero de un artículo y ponerlo en contexto con otros artículos similares.
Los investigadores también explican cómo deberían ser las respuestas de calidad que proporcionará este buscador. Para ellos deberían venir de fuentes autorizadas, ser transparentes, imparciales, accesibles y contener diversas perspectivas.
Sam Altman, fundador de Open AI, la compañía que creó del algoritmo GPT-3, reconoce que a pesar de que la tecnología es impresionante, sigue teniendo serias debilidades y a veces comete errores muy tontos. «La IA va a cambiar el mundo, pero la GPT-3 es sólo un primer vistazo. Nos queda mucho por descubrir», afirma.
[embedded content]Críticas de expertos
GPT-3 no es capaz de saber si está repitiendo información fiable de expertos, desinformación de un grupo de conspiranóicos o si se está inventando la lo que cuenta. Hanna Hajishirzi, investigadora de lenguaje natural en la Universidad de Washington, advierte en la revista MIT Technology Review que habrá problemas en la práctica.
«Creo que los grandes modelos lingüísticos son muy importantes y potencialmente el futuro de los motores de búsqueda, pero requieren gran memoria y recursos computacionales», afirma. «No creo que puedan sustituir a la indexación».
Otros expertos en inteligencia artificial también han reaccionado con recelo a la noticia, entre ellos Emily M. Bender, experta en lingüística computacional, que tuiteó lo siguiente: «es preocupante ver que una organización con los recursos y el peso en el mercado de Google promueva una investigación ‘de castillos en el aire’ con cero atención a cómo encaja en el mundo, y mucho menos a su impacto».
Bender es también coautora de un artículo muy crítico con las políticas éticas de Google respecto a la inteligencia artificial. La publicación del artículo provocó el despido de la autora principal, Timnit Gebru, una experta en ética de inteligencia artificial, que hasta diciembre era empleada de Google.
En el artículo titulado ‘On the Dangers of Stochastic Parrots’, Bender y Gebrú advierten que estos modelos de lenguaje pueden reproducir ideologías racistas, sexistas, extremistas u otras perjudiciales.
El artículo también cuestiona la eficacia y la ética de los modelos en los que ahora se basa en gran medida la búsqueda de Google, desde los costos medioambientales que generan estas tecnologías, hasta los posibles sesgos y daños en la forma de entrenarlos y utilizarlos.
El artículo también recomienda que la tecnología incluya como principios el beneficio social, la responsabilidad, la construcción de medidas de seguridad y evitar crear o reforzar prejuicios. Parece que Google por ahora no está por la labor y prefiere salvaguardar sus ‘castillos en el aire’ de cualquier empleado que los ponga en duda.
Otra cuestión que plantea dudas es qué pasará con los creadores de los contenidos de los que se alimenta esta inteligencia artificial para hacer sus resúmenes. Si Google solo ofrece sus resultados, los artículos originales no recibirían tantas visitas y sus ingresos por publicidad disminuirían radicalmente.