Hace unas semanas, usé el navegador de mi celular para ver en Google el horario de atención de una cafetería cerca de mi casa. Quería saber si me podía juntar ahí ese sábado en la tarde con una amiga. Por defecto, para cierto tipo de búsquedas, el buscador de Google ofrece un resumen realizado por Gemini, su programa de inteligencia artificial generativa. Y, de hecho, mi búsqueda en Google arrojó como primer resultado una "visión general creada por IA", que planteaba que la cafetería en cuestión cerraba a las 15:00 horas.
Sin embargo, solo unas líneas más abajo, aparecía el clásico cuadro de texto con la dirección de la cafetería en cuestión, el teléfono del local, el menú y las opiniones de otros usuarios. Ahí también se precisaba que los sábados estaba abierto hasta las 7 de la tarde. Finalmente llamé para para verificar la hora. Cerraban a las 7 y no a las 3.
Esta anécdota ilustra muy bien una realidad contemporánea. En el último tiempo, la mayoría de las empresas tecnológicas -grandes y chicas- han estado poniendo inteligencia artificial generativa en los resultados de motores de búsqueda, en resúmenes de noticia y en servicios de mensajería, por mencionar solo algunos espacios online. Aunque en ciertos casos se pude deshabilitar esa función, en otros ni siquiera se nos da la opción: por ejemplo, los usuarios en Chile y otras partes del mundo no podemos sacar la inteligencia artificial que Meta configuró en WhatsApp. Cuando quiero hacer una búsqueda en WhatsApp (por ejemplo, un mensaje de una persona específica), esa inteligencia artificial me propone, antes de escribir cualquier cosa ayuda para redactar un email, para entender un nuevo concepto, para sentirme menos estresada o para planificar una boda, entre otras opciones.
Sin embargo, es muy importante que sepamos distinguir cuándo una inteligencia artificial nos está dando buena información y cuándo no. De hecho, deberíamos tratar con cierto nivel de escepticismo todo lo que nos arroja una inteligencia artificial, porque se sabe que estos sistemas cometen errores y alucinan. Son modelos de lenguaje configurados para darnos lo que le pedimos -por ejemplo, la respuesta a una pregunta- pero no necesariamente de la manera más precisa. Sus resultados suenan seguros, muy confiables y hasta verosímiles, pero están sujetos a errores, como la anécdota de la cafetería.
No es ese el único caso. En internet hay varias historias de personas que al hacerle una pregunta a ChatGPT, a Copilot o a otra inteligencia artificial generativa obtuvieron resultados fuera de contexto, como confundir un chiste con información factual; sin sentido, como la sugerencia de comer una roca pequeña al día, ya que es fuente de minerales, o de plano incorrectos, como el caso de un turista que le creyó a ChatGPT cuando este le aseguró que los ciudadanos australianos no necesitan visa para entrar a Chile (Es obligatoria y se debe gestionar antes de entrar al país).
La inteligencia artificial puede, efectivamente, apoyar procesos y orientar en diferentes tareas. En mi círculo cercano hay gente que la usa para redactar mails complicados, para tantear soluciones a conflictos interpersonales, para resolver dudas con pruebas estadísticas o para practicar para una entrevista de trabajo. Mark Zuckerberg hasta propone que los chatbots pueden convertirse en amigos virtuales. Pero estos servicios de inteligencia artificial, que típicamente se presentan a través de conversaciones (o chatbots) se equivocan e inventan cosas, porque básicamente operan sobre la base de algoritmos correlacionales: entrenados en grandes cantidades de datos, tratan de calcular la probabilidad del contenido que sigue a continuación de lo que se les ha dado como input.
En lugar de comprobar si sus respuestas correctas, simplemente ofrecen la respuesta con más probabilidades, estadísticamente hablando. Y como la mayoría de estos sistemas está entrenado con datos disponibles en internet, sus cálculos se basan en información muchas veces precisa, sí, pero también en errores, parodias, mentiras y incluso los comentarios sin sentido que alguno de nosotros podría haber publicado alguna vez en un blog o en un foro online (Chayanne no es, en un sentido literal, el padre de Latinoamérica...). Ni hablar de los documentados sesgos de la inteligencia artificial.
Los chatbots no son motores de búsqueda y hay investigadores que plantean que la inteligencia artificial generativa no es una fuente de información, sino un medio de difusión de contenidos. Por lo mismo, tomarse lo que salga de una conversación con una inteligencia artificial con un grano de sal no es mala idea. También deberíamos chequear sus fuentes o contrastar lo que nos diga. En el caso de la cafetería, el error tenía un origen comprensible: el dato era de un sitio web con datos de restaurantes en el sector, pero publicado casi tres años atrás, cuando el local efectivamente cerraba más temprano.
Desde Facebook:
Guía de uso: Este es un espacio de libertad y por ello te pedimos aprovecharlo, para que tu opinión forme parte del debate público que día a día se da en la red. Esperamos que tus comentarios se den en un ánimo de sana convivencia y respeto, y nos reservamos el derecho de eliminar el contenido que consideremos no apropiado