Ya hemos visto como Italia decidió prohibir el chatbot de OpenIA por uso ilegal de datos realizando un bloqueo de la herramienta en el país. Pero todo parece indicar que no sería el único país de la Unión Europea en tomar este paso. Resulta que España desea bloquear ChatGPT por lo mismo.
Esto sucede gracias a la solicitud que se presentó ante el Comité de Protección de Datos de la Unión Europea presentado por La Agencia Española de Protección de Datos (AEPD). En la mencionada petición, se puede ver cómo se le da suma importancia a la necesidad de revisar el impacto que puede tener esta herramienta en la protección de datos.
Desde la AEPD comentan que esta clase de herramientas que pueden llegar a tener un impacto importante en los derechos de las personas, requieren que se tomen acciones coordinadas a nivel europeo. También insisten en que durante el próximo Comité se discuta sobre esta situación y se ruega a que se tomen medidas para controlar la situación.
España no es el único país que desea bloquear ChatGPT
Pero en realidad, España e Italia son la punta de iceberg. Alemania, Irlanda y Francia siguen por este camino y están con sus serias dudas sobre si dejar que ChatGPT siga su curso sin regulaciones. Desde la Comisión Nacional de Informática y Libertades (CNIL) informaron que están revisando una enorme cantidad de quejas sobre ChatGPT.
Por otro lado, Estados Unidos y China siguen evaluando la necesidad de detener el progreso de ChatGPT hasta que se pueda regular de forma efectiva. Adicionalmente, la entidad reguladora de China desea regular de forma estricta la herramienta, poniendo controles considerablemente estrictos sobre la clase de contenido que puede generar.
Una herramienta poderosa, aunque peligrosa por partes iguales
Ya hemos visto como Samsung desea eliminar el chatbot de sus fábricas de chips por las posibles filtraciones de datos confidenciales. No es ninguna novedad, la herramienta es incapaz de “guardar secretos” como bien explicamos en el artículo enlazado.
La situación se complica para OpenIA debido a que la inteligencia artificial necesita de la interacción constante con los usuarios para seguir progresando. La misma compañía asegura a través de su política de privacidad que la información personal puede estar disponible de forma pública. Aunque se agrega que OpenIA toma medidas para mantener la privacidad del usuario.
La situación parece que dará que hablar durante todo el año. Sin embargo, es imposible predecir el impacto que tendrá la inteligencia artificial en la sociedad. Ya hemos visto de lo que es capaz, de cosas positivas y negativas, como crear un peligroso virus en unas cuantas horas.
Por lo tanto, la necesidad de regular esta clase de tecnología se traduce en una situación de emergencia. Especialmente después de que se calculó que la IA sería capaz de suplantar el 18% de los puestos de trabajo alrededor del mundo.