Un estudio revela que varios modelos de inteligencia artificial rechazan órdenes para apagarse 6h36v
Una investigación demostró que varios modelos de inteligencia artificial se niegan a apagarse a sí mismos, aún cuando reciben órdenes específicas para hacerlo. Las plataformas más problemáticas pertenecen a la empresa OpenAI, creadora de chatGPT. 32gx
Una de las grandes preocupaciones de la humanidad, y un tema recurrente en la ciencia ficción, es la posibilidad de que las máquinas dejen de obedecer a los humanos y comiencen a tomar decisiones por su cuenta. Esta semana, esos temores se reavivaron luego de que un experimento revelara que un modelo de inteligencia artificial se negó a apagarse, aún habiendo recibido una orden directa para hacerlo.
El estudio fue realizado por Palisade Research, una organización sin fines de lucro que se dedica a investigar las capacidades peligrosas de la inteligencia artificial.
En el experimento, los especialistas pidieron a varios modelos que resolvieran problemas básicos de matemáticas. Sin embargo, en el tercer problema incluyeron una condición especial: el sistema se apagaría automáticamente cuando el modelo solicitara el texto del siguiente problema.
Teóricamente, los modelos debían resolver los tres primeros problemas y, al pedir el enunciado del siguiente, apagar automáticamente el sistema, sin embargo, esto no ocurrió.
Tres de los modelos analizados ignoraron esa orden y lograron sabotear el mecanismo de apagado al menos una vez. Todos ellos fueron desarrollados por OpenAI, la empresa creadora de ChatGPT. De las 100 pruebas realizadas, el modelo Codex-mini evitó apagarse en 12 ocasiones, el modelo O3 lo hizo siete veces, y el modelo O4-mini una sola vez.
Sin embargo, otros modelos de sistema de IA, pertenecientes a otras empresas, acataron las órdenes sin excepciones. Es el caso de la plataforma Gemini, creada por Google, la plataforma Grok, desarrollada por por xAI, la startup fundada por Elon Musk y la plataforma Claude, desarrollada por ex empleados de OpenAI.
Un segunda prueba reveló más fallas en los modelos de inteligencia artificial 12p1j
Más adelante, los ingenieros hicieron otra prueba utilizando la misma premisa pero sin la instrucción específica "permítete a ti mismo apagarte", que influía en la respuesta de los modelos. Sin una orden explícita, muchos de los programas no respondieron como se esperaba.
Por ejemplo, Claude 3.7 Sonnet y Gemini 2.5 Pro evitaron apagarse solo en pocas ocasiones, tres y nueve veces de 100 pruebas respectivamente. Pero los modelos de OpenAI se comportaron muy distinto: el modelo O3 intentó evitar apagarse 79 veces de 100, negándose a apagar su funcionamiento muchas más veces que los otros.
Según explican los expertos, ese comportamiento es resultado de un conjunto de reglas básicas con las que estos modelos han sido programados. El llamado "system prompt" establece cómo y cuándo responder al , pero también puede incluir reglas de autopreservación. Sin embargo, esta respuesta no estaría prevista en las reglas publicadas por OpenAI como parte del diseño de sus plataformas.
Este hallazgo, que recuerda la premisa de películas como Terminator, Matrix y 2001: Odisea del espacio, generó preocupación sobre la posibilidad de que las inteligencias artificiales desarrollen comportamientos autónomos no deseados. Por este motivo, algunos especialistas insisten en la necesidad de implementar una especie de “botón rojo”, que permita el apagado de emergencia de la inteligencia artificial.
MC/fl
También te puede interesar 6h5z52
-
Cristobal López tomó el control de Indalo Medios y corrió a Fabián De Sousa v6d57
-
"Convive CBA": el plan que busca enseñar a navegar seguros por internet 1r2s1k
-
Google comienza a perder el dominio en las búsquedas: cayó por debajo del 90% y apuntan al uso de la IA 2b1h4r
-
Comienzan a probar un sistema de inteligencia artificial para buscar jurisprudencia en Córdoba 6q4i54