Google está imponiendo más restricciones a su función AI Overviews después de pedirle a la gente que le pusiera pegamento a la pizza

Liz Read, jefa de búsqueda de Google, admitió que el motor de búsqueda de la compañía había arrojado algunas «descripciones generales extrañas, inexactas o inútiles de la IA» después de su lanzamiento público en los EE. UU. El ejecutivo publicó en un archivo una explicación de las respuestas más extrañas generadas por IA de Google Entrada en el blogTambién anunció que la compañía ha implementado medidas de seguridad que ayudarán a que la nueva función arroje resultados más precisos y menos dignos de memes.

Reid defendió a Google y señaló que algunas de las respuestas más atroces que circulan a la descripción general de la IA, como las afirmaciones de que es seguro dejar perros en los automóviles, son falsas. Captura de pantalla viral que muestra la respuesta a la pregunta «¿Cuántas piedras debo comer?» Es cierto, pero dijo que a Google se le ocurrió una respuesta porque un sitio publicó contenido satírico sobre el tema. «Antes de que estas capturas de pantalla se volvieran virales, prácticamente nadie le hacía esta pregunta a Google», explicó, por lo que la IA de la empresa estaba vinculada a este sitio.

El vicepresidente de Google también confirmó que AI Overview pidió a las personas que usaran pegamento para hacer que el queso se adhiriera a la pizza basándose en el contenido extraído de un foro. Dijo que los foros normalmente brindan “información genuina y directa”, pero también pueden conducir a “consejos poco útiles”. Sin embargo, el CEO no mencionó las otras respuestas que circulan en torno a la descripción general de la IA. El Correo de Washington Según los informes, la tecnología también decía a los usuarios que Barack Obama era musulmán y que la gente debía beber mucha orina para ayudarles a deshacerse de los cálculos renales.

READ  El nuevo equipo de Plataformas y Dispositivos de Google tiene que ver con la inteligencia artificial

Reed dijo que la compañía probó exhaustivamente la función antes de su lanzamiento, pero «no hay nada como que millones de personas utilicen esta función para tantas búsquedas nuevas». Parece que Google pudo identificar patrones en los que su tecnología de inteligencia artificial no pudo hacer las cosas bien al observar ejemplos de sus respuestas durante las últimas dos semanas. Luego implementó protecciones basadas en sus comentarios, comenzando por ajustar su IA para poder detectar mejor el humor y el contenido satírico. También ha actualizado sus sistemas para limitar la adición de respuestas generadas por los usuarios en las descripciones generales, como publicaciones en redes sociales y foros, que pueden brindar a las personas consejos engañosos o incluso dañinos. Además, «también agregó restricciones de activación para consultas en las que las descripciones generales de IA no resultaron útiles» y dejó de mostrar respuestas generadas por IA para algunos temas de salud.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *