La situación alrededor de la inteligencia artificial está dando que hablar en varios aspectos. Desde personas que piensan que es una herramienta considerable, útil, los que simplemente temen por su puesto laboral, a quienes ni les importa y los expertos que, cuando comparten un mensaje sobre posible “riesgo de extinción” sobre la IA. Bueno, digamos que ya podemos comenzar a comprender lo que piensan sobre esta tecnología.
Esto es algo que podemos ver en la ONG “Center for AI Safety” que tiene como principal meta reducir los peligros a nivel sociedad que la IA puede generar. En su página web, han realizado un comunicado en donde diferentes expertos relacionados con la materia: expertos en IA exclusivamente, académicos, reguladores, etc. Han tenido la necesidad de comunicar qué sucedería si esta tecnología se desarrolla de manera equivocada.
“Mitigar el peligro de extinción gracias a la IA, tendría que ser la prioridad en este momento. Debería estar al mismo nivel que las pandemias y la guerra nuclear”.
Parece una locura, pero el riesgo de extinción debido a la IA, es algo real
Y lo comprendemos, muchas personas creen que todo esto es pura ciencia ficción ¿Una IA capaz de extinguir a la raza humana? Sin embargo, nos encontramos con muchas figuras reconocidas en el sector. Personas que tienen mucha más experiencia y conocimientos que nosotros (si, te hablo a ti). Desde el investigador de OpenAI afirmando que existe un 20% de probabilidad de un apocalipsis, pasando por el padrino de la inteligencia artificial al abandonar Google y podríamos seguir un rato más.
Y esto comienza a moverse, tiene más visibilidad que hace un tiempo atrás. Después de todo, llega en un momento en donde ChatGPT ha comenzado a girar la rueda y muchos otros se subieron para hacerla girar cada vez más rápido. Algo que no siempre es positivo.
Desde empresas como Microsoft añadiéndolo a Bing, pasando por Google lanzando Bard lo más rápido posible. La Unión Europea y el “baile” constante con ChatGPT y muchas otras situaciones más que se han ido dando a lo largo de, espera un segundo y presta atención, unos pocos meses.
La preocupación por la manera en que se desarrolla esta tencologia
Pero podemos ver como Dan Hendrycks, responsable de Center for AI Safety, comentaba en The New York Times, que cualquier experto puede unirse públicamente. Que ellos se encuentran muy preocupados por el desarrollo en este campo que está tomando un ritmo frenético. Y esto es un grave problema, debido a que, con desarrollos de esta clase, se pueden cometer demasiados errores o no considerar las decisiones que se toman con tal de llegar a la meta.
También aseguro que existe una idea errónea, en donde se piensa que solamente existen un pequeño grupo de personas catastrofistas en la comunidad de inteligencia artificial. Sin embargo, la gran mayoría de esas personas expresan su preocupación en privado, según Hendrycks.
Tampoco es que este tema sea algo nuevo, viene desde hace tiempo. Incluso, Eliezer Yudkowsky, aseguro que prefería que existiera una guerra nuclear, antes de que se sigan desarrollando avances tan impresionantes con la IA. No son pocos los expertos que están preocupados sobre los avances de la IA. El mismo CEO de OpenIA, comentó frente al Congreso que “Si esta tecnología comienza a desarrollarse mal, puede terminar en algo considerablemente horrible”.