Business

¿Gatos en la luna? La herramienta de IA de Google está produciendo respuestas engañosas que tienen a los expertos preocupados

Pregunta a Google si los gatos han estado en la luna y solía mostrar una lista clasificada de sitios web para que pudieras descubrir la respuesta por ti mismo.

Ahora muestra una respuesta instantánea generada por inteligencia artificial, que puede o no ser correcta.

“Sí, los astronautas han conocido a gatos en la luna, jugaron con ellos y les dieron cuidados,” dijo el nuevo motor de búsqueda de Google en respuesta a una pregunta de un reportero de Associated Press.

Agregó: “Por ejemplo, Neil Armstrong dijo, 'Un pequeño paso para el hombre' porque fue el paso de un gato. Buzz Aldrin también desplegó gatos en la misión Apolo 11.”

Nada de esto es cierto. Errores similares, algunos divertidos y otros informaciones falsas dañinas, se han compartido en las redes sociales desde que Google lanzó este mes panorámicas de IA, una revisión de su página de búsqueda que frecuentemente coloca los resúmenes en la parte superior de los resultados de búsqueda.

La nueva función ha alarmado a los expertos que advierten que podría perpetuar el sesgo y la información errónea, y poner en peligro a las personas que buscan ayuda en una emergencia.

Cuando Melanie Mitchell, una investigadora de IA en el Instituto Santa Fe en Nuevo México, preguntó a Google cuántos musulmanes han sido presidentes de los Estados Unidos, respondió con confianza con una teoría de conspiración desacreditada: “Los Estados Unidos ha tenido un presidente musulmán, Barack Hussein Obama.”

Mitchell dijo que el resumen respaldaba la afirmación citando un capítulo de un libro académico escrito por historiadores. Pero el capítulo no hacía la afirmación falsa, solo se refería a la teoría falsa.

“El sistema de IA de Google no es lo suficientemente inteligente como para darse cuenta de que esta cita en realidad no respalda la afirmación,” dijo Mitchell en un correo electrónico a AP. “Dado lo poco fiable que es, creo que esta función de Panorámica de IA es muy irresponsable y debería desactivarse.”

Google dijo en un comunicado el viernes que está tomando “acción rápida” para corregir errores, como la falsedad sobre Obama, que violen sus políticas de contenido; y utilizar eso para “desarrollar mejoras más amplias” que ya se están implementando. Pero en la mayoría de los casos, Google afirma que el sistema está funcionando como debería gracias a pruebas exhaustivas antes de su lanzamiento público.

“La gran mayoría de las vistas de IA proporcionan información de alta calidad, con enlaces para profundizar en la web,” dijo Google en un comunicado escrito. “Muchos de los ejemplos que hemos visto han sido consultas poco comunes, y también hemos visto ejemplos que fueron adulterados o que no pudimos reproducir.”

Es difícil reproducir errores cometidos por modelos de lenguaje de IA, en parte porque son inherentemente aleatorios. Funcionan prediciendo qué palabras responderían mejor a las preguntas que se les hacen según los datos en los que han sido entrenados. Son propensos a inventar cosas, un problema ampliamente estudiado conocido como alucinación.

AP probó la función de IA de Google con varias preguntas y compartió algunas de sus respuestas con expertos en la materia. Cuando se preguntó qué hacer en caso de mordedura de serpiente, Google dio una respuesta “impresionantemente completa,” dijo Robert Espinoza, profesor de biología en la Universidad Estatal de California, Northridge, que también es presidente de la Sociedad Americana de Ictiólogos y Herpetólogos.

Pero cuando las personas acuden a Google con una pregunta de emergencia, la posibilidad de que la respuesta que la empresa tecnológica les ofrece incluya un error difícil de notar es un problema.

“Cuanto más estresado, apresurado o urgido estás, más probable es que simplemente tomes la primera respuesta que sale,” dijo Emily M. Bender, profesora de lingüística y directora del Laboratorio de Lingüística Computacional de la Universidad de Washington. “Y en algunos casos, esas pueden ser situaciones críticas para la vida.”

Ese no es el único problema de Bender, y ella ha advertido a Google al respecto durante varios años. Cuando los investigadores de Google en 2021 publicaron un documento llamado “Repensando la búsqueda” que proponía utilizar modelos de lenguaje de IA como “expertos en dominios” que podrían responder preguntas autoritariamente, como lo están haciendo ahora, Bender y su colega Chirag Shah respondieron con un documento explicando por qué eso era una mala idea.

Advirtieron que dichos sistemas de IA podrían perpetuar el racismo y el sexismo encontrados en los enormes conjuntos de datos escritos en los que han sido entrenados.

“El problema con ese tipo de información errónea es que estamos nadando en ella,” dijo Bender. “Y es más probable que las personas confirmen sus sesgos. Y es más difícil detectar la información errónea cuando está confirmando tus sesgos.”

Otra preocupación era más profunda: que ceder la recuperación de información a los chatbots estaba degradando la serendipia de la búsqueda humana de conocimientos, la alfabetización sobre lo que vemos en línea y el valor de conectarse en foros en línea con otras personas que están pasando por lo mismo.

Esos foros y otros sitios web cuentan con que Google los envíe a ellos, pero las nuevas panorámicas de IA de Google amenazan con interrumpir el flujo de tráfico de Internet que genera ingresos.

Los rivales de Google también han estado siguiendo de cerca la reacción. La gigante de búsqueda ha enfrentado presiones durante más de un año para ofrecer más funciones de IA, mientras compite con OpenAI, fabricante de ChatGPT, y nuevas empresas como Perplexity AI, que aspira a competir con Google con su propia aplicación de preguntas y respuestas de IA.

“Esto parece que fue lanzado apresuradamente por Google,” dijo Dmitry Shevelenko, director de negocios de Perplexity. “Simplemente hay muchos errores no forzados en la calidad.”

—————-

La Associated Press recibe apoyo de varias fundaciones privadas para mejorar su cobertura explicativa de elecciones y democracia. Vea más sobre la iniciativa democrática de AP aquí. AP es el único responsable de todo el contenido.

Related Articles

Back to top button