Por qué Google está (probablemente) atrapado dando respuestas de IA que pueden ser incorrectas
Primer paso: Google lanza un nuevo producto basado en inteligencia artificial.
Segundo paso: los usuarios encuentran rápidamente los fallos de ese producto y se los señalan al gigante tecnológico en redes sociales, convirtiéndose esos errores en noticia.
Tercer paso: Google admite que su nuevo producto basado en IA es defectuoso y lo pone en pausa.
Sí, esto ya lo hemos visto antes. En febrero, la empresa de búsquedas online se vio obligada a retirar el generador de imágenes por inteligencia artificial de su chatbot, Gemini.
Ahora nos encontramos en el primer paso de ese mismo proceso: Google está poniendo a disposición del público su nueva función, AI Overview (del inglés, resúmenes de IA), que sustituye su respuesta habitual a las consultas de búsqueda —una lista de enlaces a páginas web en los que podías encontrar la respuesta que estabas buscando— por una respuesta generada por IA que intenta resumir el contenido de esos mismos enlaces.
Y la gente ya está encontrando ejemplos de Google ofreciendo respuestas que son erróneas, a veces incluso ridículas.
Por eso mi compañera, Katie Notopoulos, preparó y luego se comió una pizza hecha con pegamento (¡Bendita seas, Katie! Eso sí que es periodismo. Espero que inviertas tu indemnización por riesgos laborales sabiamente. (Nos pagan por riesgos, ¿verdad?)).
Así que aquí está la pregunta de los dos billones de dólares: ¿Tendrá Google que dar marcha atrás también en este caso?
No, dice la propia compañía tecnológica, que argumenta que las respuestas tontas que ha estado generando en realidad son poco frecuentes y que la mayoría de la gente no sabe ni le interesan las consultas que se preguntan cuántas piedras puedes comer o que hay que mirar directamente al sol entre cinco y quince minutos (a menos que tengas la piel oscura, en cuyo caso puedes hacerlo el doble de tiempo).
Google también asegura que está eliminando este tipo de malas respuestas a medida que aparecen. Especialmente aquellas en las que alguien lo suficientemente inteligente como para utilizar un teléfono, pero lo suficientemente estúpido como para seguir esas respuestas podría hacerse daño.
Esta es la versión formal de la respuesta que ofrece la tecnológica, a través de Lara Levin, responsable de comunicación de Google:
«La gran mayoría de los resúmenes de IA ofrecen información de alta calidad, con enlaces para profundizar. Muchos de los ejemplos que hemos visto han sido consultas poco comunes y también hemos visto ejemplos que estaban trucados o que no podíamos reproducir. Hemos realizado pruebas exhaustivas antes de lanzar esta nueva experiencia y, al igual que con otras funciones que hemos lanzado en el buscador, agradecemos los comentarios recibidos. Estamos tomando medidas rápidas cuando procede en virtud de nuestras políticas de contenido y utilizando estos ejemplos para desarrollar mejoras más amplias en nuestros sistemas, algunas de las cuales ya han comenzado a implementarse».
OK.
Pero, como he dicho, esto ya ha ocurrido antes. ¿Qué pasa si la gente sigue encontrando malas respuestas en Google y la empresa no puede acabar con ellas lo suficientemente rápido? Y, sobre todo, ¿qué pasa si la gente normal, la gente que no pasa tiempo leyendo o hablando sobre noticias tecnológicas, empieza a enterarse de las Respuestas Erróneas y Potencialmente Peligrosas de Google?
Porque eso sería un problema muy, muy grave. Google hace muchas cosas diferentes, pero la razón por la que vale más de dos billones de dólares —unos 1,84 billones de euros al tipo de cambio actual— siguen siendo sus dos productos principales: las búsquedas y los anuncios que genera junto a los resultados de esas mismas búsquedas.
Y, si la gente, la gente normal, pierde la confianza en Google como motor de búsquedas… Bueno, eso sería un verdadero problema.
Internamente, los responsables de Google se reafirman en la idea de que estas «malas respuestas» realmente son un problema marginal. Y que, a diferencia del problema que se generó hace unos meses con la IA «woke» de Google, en el que realmente existía un fallo en el modelo que la tecnológica utilizaba para generar imágenes, este no es el caso ahora.
Google nunca acierta al 100% —defienden los portavoces con toda la tranquilidad del mundo— porque, al final, los resultados de su buscador siguen basándose solo en lo que la gente publica en internet. Solo que ahora se está prestando mucha más atención a los resultados porque hay algo nuevo a lo que prestar atención.
Estoy dispuesto a creerme la versión de Google: llevo aproximadamente un mes viendo las respuestas de su inteligencia artificial en mis resultados de búsqueda y, en general, están bien.
Y lo que es muy diferente entre los antiguos resultados de Google y los nuevos es la responsabilidad y la autoridad que asume la firma de Mountain View. Antes, Google te decía que otra persona podía responder a tu pregunta. Ahora la propia tecnológica es la que responde a tu pregunta.
Es la diferencia que existe entre que yo te dé un mapa y que yo te dé indicaciones que harán que tu coche se despeñe por un acantilado.
Se podría argumentar, como hace mi hijo de 15 años (somos gente rara, así que hablamos de estas cosas en casa), que Google no debería sustituir sus resultados de búsqueda antiguos por respuestas generadas por IA generativa. Si la gente quisiese respuestas generadas por inteligencia artificial, acudirían a ChatGPT, ¿no?
Pero, claro, lo que le preocupa a Google es que la gente vaya a ChatGPT. Por eso está haciendo todo esto: para desestabilizarse a sí mismos antes de que ChatGPT u otros modelos de IA lo hagan.
Puede llegar a decirse que la compañía dirigida por Sundar Pichai se está moviendo demasiado rápido o demasiado descuidadamente, o lo que sea. Pero es difícil imaginar a Google dando marcha atrás ahora.