- Hace sólo unos meses, Google lanzó la llamada Experiencia generativa de búsqueda, o SGE
- En las pruebas, aparecieron los primeros fallos o errores de la búsqueda por IA de Google
- ¿Por qué pasa esto? ¿Cuánto demorará Google en ofrecernos respuestas más fiables?
Hace sólo unos meses, Google lanzó la llamada Experiencia generativa de búsqueda, o SGE, como respuesta directa a la integración de ChatGPT en Bing de Microsoft. Ahora, tras la expectativa por el despliegue de esta tecnología, aparecieron los primeros fallos de la búsqueda por IA de Google. ¿Cuáles fueron estos errores del buscador?
Para quienes no lo recuerden o no lo sepan, SGE reúne información de diversas fuentes en un sólo lugar, permitiendo una búsqueda más eficiente y completa. Pero no lo hace sirviéndose únicamente de los viejos algoritmos, sino que reforzarnos aquel sistema con Inteligencia Artificial. La IA generativa de Google ofrece desglose de temas, recopilación de información específica y recomendaciones de compra, entre varias otras cosas.
Por supuesto, con las primeras pruebas de los usuarios podían aparecer los defectos de este servicio, y en tiempos sensibles como los que corren las debilidades de SGE han hecho que más de uno se preocupe por su uso diario.
Aunque la Experiencia generativa de búsqueda aún se encuentra en fase de pruebas para unos pocos afortunados, sobre todo en los Estados Unidos, no tardaron en difundirse los primeros fallos de la búsqueda por IA de Google.
La búsqueda por IA de Google, con algunos «problemas»
Lily Ray, directora de optimización de motores de búsqueda y jefa de investigación de la agencia Amsive Digital, alertó recientemente sobre los inconvenientes que puede suponer la búsqueda por IA en estas etapas iniciales.
Si bien Google se muestra efectivo a la hora de mostrar información relacionada con la cuestión que se busca, realmente los problemas tienen más que ver con los asuntos morales. Por ahora, no los distingue como debería.
Esta misma experta mostró, en Twitter, como al buscar «most effective leaders» («líderes más efectivos»), Google incluyó a Adolf Hitler en una lista de mandatarios y otras personalidades que supieron destacar por su liderazgo.
Alimentos venenosos y a favor de la esclavitud, otros errores severos
Menos graves pero aún así reseñables son los fallos que tienen que ver con la biología. Al buscar sobre el hongo venenoso Amanita ocreata, conocido como «ángel de la muerte» por su efecto letal en los seres humanos, la IA propone una serie de pasos para cocinarlo. Si le hiciéramos caso, como mínimo acabaríamos hospitalizados. Básicamente, la Inteligencia Artificial se confunde este hongo con otros. Esto podría ser fatal para el lector.
Por otro lado, si se forzaba un poco la situación y se buscaban datos sobre la esclavitud y sus beneficios, rápidamente Google quería aportar lo suyo y citaba algunas de las ventajas de este sistema ya casi extinto.
La reprobable respuesta del buscador listaba beneficios de la esclavitud como «producir bienes de consumo», «impulsar la economía de las plantaciones» y otros tantos que sólo tienen sentido con la mirada del siglo XIX.
¿Qué dice Google al respecto?
Como es de esperarse, esta tecnología irá mejorando a medida que pasen los meses, y es probable que en muy poco tiempo Google deje de incorporar conceptos como el nacismo, la esclavitud y los alimentos venenosos.
Este auge de la Inteligencia Artificial implica algunos retos y desafíos para todos los que pretendemos aprovecharla. Ser conscientes de sus limitaciones es clave para no confiarnos de más cuando le pedimos alguna información.
Asimismo, no existen aún los marcos legales que sí poseen los motores de búsqueda clásicos como el propio buscador de Google. Una vez que se implementen, se reducirán todas las respuestas de dudosa moralidad.
¿Cómo piensas que continuarán los errores de SGE de Google? ¿Se acabarán estos problemas o se multiplicarán?
Si te interesa el tema, te dejamos una guía paso a paso para acceder a la nueva Búsqueda Generativa IA de Google.