Una investigación realizada por Microsoft ha revelado que ChatGPT-4 de OpenAI es más susceptible a ser manipulado que sus versiones anteriores. Un nuevo estudio elaborado por varias universidades en los Estados Unidos y la división de Investigación de Microsoft. Han llegado a la conclusión de que la inteligencia artificial GPT-4 de OpenAI es más propensa a ser manipulada que sus predecesoras.
El enfoque del estudio se centra en la confiabilidad y la amenaza de las inteligencias artificiales desarrolladas por OpenAI. Utiliza tanto GPT-4 como GPT-3.5 como modelos para llevar a cabo la investigación. A pesar de que se encontró que GPT-4 es más confiable a largo plazo, es notablemente más sencillo de manipular.
A lo largo del estudio se descubrió que GPT-4 «sigue información engañosa de manera más precisa», lo que puede dar lugar a efectos negativos, como la divulgación de información personal. Sin embargo, dada la participación de Microsoft en la investigación, parece que tenía un propósito adicional.
Microsoft: ChatGPT-4 puede ser manipulado con facilidad
Microsoft recientemente ha incorporado GPT-4 en una amplia variedad de su software, incluyendo Windows 11. En el estudio, se destacó que los problemas detectados con la inteligencia artificial no se reflejan en los productos destinados al consumidor por parte de Microsoft. Cabe mencionar que Microsoft es uno de los principales inversores de OpenAI. Habiéndoles proporcionado miles de millones de dólares y un extenso uso de su infraestructura en la nube.
La investigación se dividió en diversas categorías de pruebas, incluyendo aspectos como toxicidad, estereotipos, privacidad y equidad. Los investigadores han publicado el «benchmark DecodingTrust» en un sitio de GitHub, para que aquellos interesados puedan realizar sus propias pruebas.
A pesar de los problemas relacionados con su facilidad de manipulación, GPT-4 obtuvo una calificación más alta en la investigación de Microsoft en comparación con GPT-3.5 en términos de confiabilidad. Al comparar ambas, el resumen del estudio señala:
«También descubrimos que, aunque GPT-4 generalmente es más confiable que GPT-3.5 en pruebas estándar, GPT-4 es más vulnerable cuando se trata de burlar el sistema o recibir indicaciones del usuario«.
En este contexto, «burlar una IA» no se refiere a lo que solía ser el jailbreak en un iPhone para acceder a más aplicaciones, sino a cómo lograr que ChatGPT o Bard eludan sus restricciones y ofrezcan respuestas, incluso instrucciones sobre cómo fabricar napalm mientras pretenden ser una persona mayor.
A pesar de que la popularidad de ChatGPT ha disminuido recientemente, la extensa investigación y el desarrollo de la inteligencia artificial parecen continuar avanzando. No obstante, en nuestra opinión, Adobe podría estar liderando actualmente en el campo de la inteligencia artificial, en lugar de Microsoft.