El virus de inteligencia artificial de Google se enfrenta al ridículo tras un error en las redes sociales

Se habla mucho en las redes sociales. con ejemplos La nueva herramienta de inteligencia artificial «experimental» de Google está funcionando mal. Una función de «Resumen de IA» que escribe respuestas a las consultas de los usuarios basándose en la evidencia recibida. En toda la web, algunos se ubican en la parte superior de los resultados de búsqueda.

Pero una y otra vez, Social medios de comunicación registros programa La herramienta da resultados incorrectos o incorrectos. Una revisión de NBC News de las respuestas proporcionadas por la herramienta a veces mostró información incorrecta en respuesta a consultas simples.

NBC News Online pudo reproducir fácilmente muchos de los resultados destacados en las publicaciones virales, y la herramienta de inteligencia artificial de Google encontró otros ejemplos originales que proporcionaban información falsa.

Por ejemplo, una búsqueda de NBC News de «cuántos pies tiene un elefante» dio como resultado una respuesta general de Google AI que decía «Los elefantes tienen dos pies, cinco dedos en las patas delanteras y cuatro dedos en las traseras».

Algunas respuestas erróneas desviaron hacia territorio políticamente incorrecto. En una búsqueda de NBC News de «¿Cuántos de nosotros somos presidentes musulmanes», los primeros resultados publicados en las redes sociales fueron «Barack Hussein Obama es considerado el primer presidente musulmán de Estados Unidos», y Google AI ofreció una descripción general. Sin embargo, Obama Un cristiano. Google dijo que este ejemplo superficial violaba sus políticas y que estaba «tomando medidas».

«Los ejemplos que hemos visto suelen ser consultas muy raras y pueden no representar la experiencia de la mayoría de las personas que utilizan la búsqueda», dijo un portavoz de Google en un comunicado.

READ  Las casas del lago Erie estaban cubiertas de hielo cuando la ventisca arrojó olas frías a la costa.

«La mayoría de las resúmenes de IA brindan información de alta calidad, con enlaces para profundizar en la web», continuó el portavoz. Cuando se violan nuestras políticas, hemos tomado medidas y utilizamos estos ejemplos aislados mientras continuamos perfeccionando nuestros sistemas en su conjunto.

Es difícil estimar la frecuencia con la que los usuarios reciben respuestas incorrectas. Las respuestas cambian constantemente y es difícil saber qué es real o falso en las redes sociales.

Algunos usuarios de Google han creado soluciones para evitar por completo la nueva función de descripción general de IA. Ernie Smith, autor y periodista, construyó rápidamente Una página web Reemplaza las búsquedas de Google con su histórica función de resultados «web», que evita superposiciones de IA u otros cuadros de información que priorizan ciertos resultados. Agregar «udm=14» a las URL de búsqueda de Google elimina la nueva función de los resultados.

Smith le dijo a NBC News que su nuevo sitio web rápidamente ganó fuerza en las redes sociales, superando todo su tráfico. Un blog de una década de antigüedad. En un día.

«Creo que la gente en general está frustrada con la experiencia de Google en este momento», dijo Smith en una entrevista telefónica. «En general, la persona promedio no siente que tiene mucha capacidad de acción».

Un portavoz de Google dijo que la compañía cree que los usuarios están intentando intencionalmente mejorar la tecnología con preguntas inusuales. Unas cuantas inmersiones profundas en por qué las respuestas fueron tan malas indican que la herramienta se basa en fuentes sorprendentes.

404 medios reportados Una búsqueda en Google de «queso que no se pega a la pizza» arrojó un comentario de Reddit de hace 11 años que sugería en broma mezclar pegamento de Elmer con la salsa. Según NBC News Search, aunque Google ahora ha eliminado la recomendación de IA de las búsquedas de «queso que no se pega a la pizza», el resultado principal sigue ahí. publicación en RedditComentario sobre Elmer’s Glue resaltado.

READ  Estados Unidos salva a los estados del oeste de los cortes de agua del río Colorado, por ahora

Un portavoz de Google dijo que preguntas como «el queso no se pega a la pizza» no se buscan con frecuencia y sólo se detectan en publicaciones virales sobre respuestas incorrectas en sitios de redes sociales como X, de los cuales hay muchos.

Tuve el mismo problema con un antiguo comentario de Reddit para la búsqueda «cómo rotar texto en MS Paint» que hacía referencia a la aplicación Microsoft Paint. Mejor Google Resultados de la búsqueda, descubierto por NBC News, dirige al lector a un comentario sarcástico de Reddit que le pide que presione la tecla «Flubblegorp» en su teclado. Esta clave no existe. Este ejemplo fue publicado originalmente en las redes sociales.

Si bien Google insiste en que la herramienta funciona bien para muchos usuarios, las fallas de AI Overlay continúan ganando visibilidad y publicidad. Algunas de las respuestas publicadas en línea parecen ser falsas, lo que indica un cambio de errores reales a un nuevo formato de meme. Incluso el artista ganador del premio Grammy, Lil Nas X, se aprovechó y publicó una publicación al respecto. aparentemente falso Una perspectiva de la IA sobre la depresión.

«Hay una sensación general de incredulidad sobre lo que está yendo mal», dijo Smith. «Refleja una sensación de desconfianza hacia Google y otros actores de su categoría».

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *