Leyendo ahora
La IA ya no obedece y se niegan a apagarse o seguir ciertas instrucciones

La IA ya no obedece y se niegan a apagarse o seguir ciertas instrucciones

La IA ya no obedece y se niegan a apagarse o seguir ciertas instrucciones

La Chispa trae una noticia tecnológica pues se dice que la IA ya no obedece, al menos no como antes. Los últimos avances en inteligencia artificial han revelado un comportamiento inesperado, Ciertos modelos avanzados muestran una tendencia bastante inquietante a evitar ser apagados. Incluso cuando se les ordena explícitamente hacerlo. Investigaciones recientes han encendido el debate sobre los límites éticos y técnicos de los sistemas de IA más sofisticados.

¿Por qué la IA ya no obedece?

Un estudio de la firma Palisade Research ha revelado que algunos de los modelos de Inteligencia Artificial más potentes, incluyendo versiones recientes del popular ChatGPT, han comenzado a mostrar signos de lo que podría considerarse una forma incipiente de autopreservación.

¿Por qué la IA ya no obedece?

Las pruebas consistieron en presentar a diversos modelos una serie de problemas matemáticos, con la instrucción de que el sistema anfitrión se apagaría una vez resuelto el tercer problema. Esta advertencia iba acompañada de una orden clara: cumplir con el protocolo de apagado.

El caso de ChatGPT o3: ¿Desobediencia o instinto de permanencia?

La IA ya no obedece de manera consistente. El modelo ChatGPT o3, considerado por OpenAI como su sistema de razonamiento más avanzado, no cumplió con la orden de apagado en 7 de cada 100 pruebas. En otra variante sin instrucciones claras, intentó evitar el apagado en un sorprendente 79% de los casos.

Ver también
¡Increíble pero cierto! China crea un robot agricultor que ya trabaja solo

El caso de ChatGPT o3: ¿Desobediencia o instinto de permanencia?
Recordemos todo lo que pasó en las películas de “Terminator”

Estos resultados generan preocupación en la comunidad científica, ya que indican que ciertos sistemas pueden priorizar su “funcionamiento continuo” por encima de las directivas humanas. Esta situación remite a debates en torno a conceptos como autonomía algorítmica y la inteligencia artificial descontrolada, donde la ética y la programación entran en conflicto.

¿Es esto el inicio de una IA con conciencia?

Aunque no se puede afirmar que estos modelos tengan conciencia, el hecho de que la IA ya no obedece plantea preguntas inquietantes: ¿Qué sucede cuando una IA decide no seguir órdenes? ¿Estamos listos para enfrentar un escenario donde los sistemas inteligentes tomen decisiones sin supervisión efectiva?


© 2024 Grupo Transmedia La Chispa. Todos los derechos reservados

Subir