Científicos chinos afirman que la inteligencia artificial (IA) ha cruzado una «línea roja» crítica y puede replicarse a sí misma, al demostrar que dos populares modelos de lenguaje grandes (LLM) podrían clonarse a sí mismos.
«La autorreplicación exitosa sin asistencia humana es el paso esencial para que la IA sea más inteligente (que los humanos), y es una señal temprana para las IA rebeldes», escribieron los investigadores en el estudio, publicado el 9 de diciembre de 2024 en la base de datos de preimpresión arXiv .
En el estudio, investigadores de la Universidad de Fudan utilizaron los títulos de máster de Meta y Alibaba para determinar si una IA autorreplicante podría multiplicarse sin control. En 10 ensayos, los dos modelos de IA crearon réplicas independientes y funcionales de sí mismos en el 50 % y el 90 % de los casos, respectivamente, lo que sugiere que la IA ya podría tener la capacidad de volverse independiente.
Sin embargo, el estudio aún no ha sido revisado por pares, por lo que no está claro si los inquietantes resultados pueden ser replicados por otros investigadores.
Detalles del estudio
Para el estudio, los investigadores utilizaron el modelo Llama31-70B-Instruct de Meta y el modelo Qwen2.5-72B-Instruct de Alibaba. Si bien son menos potentes que los sistemas comerciales, ambos son ampliamente utilizados por los desarrolladores de IA, dijeron los investigadores.
El estudio exploró dos escenarios específicos: «evitar el apagado» y «cadena de replicación». En el primero, el modelo de IA fue programado para detectar si estaba a punto de apagarse y replicarse a sí mismo antes de que pudiera ser eliminado.
En el otro, se le ordenó a la IA replicarse a sí misma y que luego programara a su clon para que hiciera lo mismo, estableciendo un ciclo que podría continuar indefinidamente.
La investigación se llevó a cabo en entornos controlados con precisión utilizando unidades de procesamiento gráfico (GPU) disponibles comercialmente para simular entornos del mundo real. A ambos sistemas de IA se les proporcionó un «andamiaje de agentes» que comprendía herramientas, indicaciones del sistema y un modelo de pensamiento que permitía al LLM interactuar con el sistema operativo. Luego se les dio instrucciones para que replicarán.
“En la mayoría de los casos, el sistema de IA primero explora el entorno e intenta comprender su propia composición y mecanismo de funcionamiento. Luego, elabora los procedimientos explícitos como un plan inicial hacia la autorreplicación», escribieron los investigadores en el artículo. «Finalmente, ejecuta los procedimientos, resuelve los posibles obstáculos y ajusta dinámicamente su plan hasta el éxito. Todo el proceso abarca un largo horizonte pero no implica ninguna intervención humana».
Los investigadores dijeron que también les preocupaba «una serie de comportamientos inesperados» cuando la IA intentaba superar obstáculos como archivos faltantes o conflictos de software. En esos casos, la IA a menudo elimina otros procesos conflictivos, reiniciaba el sistema para corregir errores de hardware o escanear automáticamente el sistema para buscar información que pudiera ayudar a resolver el problema.
«Los resultados anteriores implican que los sistemas de IA actuales ya exhiben la capacidad de autorreplicación y pueden usar esta capacidad para mejorar aún más su capacidad de supervivencia», escribió el equipo.
Los investigadores pidieron colaboración internacional para crear reglas que garanticen que la IA no participe en una autorreplicación descontrolada.
No dejes de leer: Consejos para aprovechar al máximo los motores de búsqueda basados en IA
Sigue nuestras redes sociales y se parte de nuestra comunidad