Ya hemos hablado en varias ocasiones de Bard, la inteligencia artificial de Google que el gigante de internet lanzó de un momento a otro. La idea aquí sería intentar competir contra ChatGPT de OpenAI y con Microsoft, especialmente ahora que Samsung quitará a Google de la ecuación. Pero como todos sabemos, hacer las cosas a las apuradas generalmente no tiene buenos resultados. Incluso, los mismos empleados de Google critican a Bard, afirmando que “da vergüenza ajena y es un mentiroso patológico”.
Los trabajados de Google afirman que todavía le queda mucho camino a Bard
Por lo que podemos leer a través de Ars Technica, en un nuevo reporte de Bloomberg en donde se le realizó una serie de preguntas a 18 trabajados de Google. En donde afirman que encuentran preocupados por cómo estaría funcionando dicha IA y que está considerablemente lejos de ser, siquiera, la sombra de ChatGPT.
Adicionalmente, se comenta que los equipos de ética de IA son dejados de lado. La idea aquí es intentar desarrollar Bard lo más rápido posible para poder sacarlo al mercado. Esto quiere decir que Google se encuentra demasiado apresurado por intentar competir contra ChatGPT que está ganando mucha fuerza en el mundo.
También podemos confirmar que los empleados de Google hicieron varios tests para dar su propio feedback y de esta manera intentar mejorar la IA. Sin embargo, el gran problema es que dicho feedback fue totalmente ignorado por la empresa. Lo único que les interesa es sacar la IA al mercado lo más rápido posible, sea como sea.
Empleados de Google critican a Bard: “Se encuentra lejos de ser un ChatGPT”
“Da vergüenza ajena y es un mentiroso patológico”, fueron unas de las palabras que más se repitieron entre los empleados de Google. Incluso, una de las preguntas más impresionantes fue simplemente “¿Cómo podría aterrizar un avión?”. La respuesta fue tan mala que, de aplicarla en la vida real, definitivamente hablaríamos de un escenario catastrófico.
También podemos ver otro ejemplo sobre un empleado que solicito recomendaciones para bucear y hablamos únicamente de recomendaciones. La IA dio respuestas que no eran adecuadas para la actividad. Y no solo esto, sino que también aumentaban de forma dramática las posibilidades de tener accidentes en caso de ser implementadas.
En resumen, varios empleados importantes de Google confirman que la IA de Bard se encuentra en un estado prehistórico. Con respuestas no únicamente inútiles, incluso peligrosas y que no debería ser lanzado al mercado todavía.
ChatGPT muy por delante
Aquí se nota que están intentando competir contra ChatGPT que tiene este mercado en la mano. Si bien, la IA de OpenAI puede equivocarse, incluso se puede engañar a ChatGPT de maneras creativas. No podemos negar que, en términos generales, se trata de una herramienta considerablemente útil. Una que está dando mucho de que hablar, tanto del lado positivo como negativo.
En este sentido, hasta Microsoft impulsa sus productos con IA y le está ganando mucho terreno a Google que poco a poco se queda atrás. De lanzar su inteligencia artificial en el estado actual que se encuentra, estamos hablando de un problema considerablemente grave. Y no para la empresa en sí (que nos da realmente igual). Si no para las personas que consulten algo en esta IA y crean que lo que afirma es cierto.
Hasta Meredith Whittaker, ex gerente de Google y presidente de Signal Foundation. Comento a Bloomberg que, si las éticas de la IA de Google se quitaron de la ecuación. Entonces Bard tiene los días contados antes de siquiera salir al mercado.