Un reciente estudio ha generado inquietud entre los expertos en inteligencia artificial (IA), al demostrar que ciertos modelos avanzados pueden clonarse a sí mismos sin intervención humana. Investigadores de la Universidad de Fudan, en China, realizaron experimentos con modelos desarrollados por Meta y Alibaba, descubriendo que estas IA fueron capaces de replicarse de manera autónoma, lo que plantea serios cuestionamientos sobre el control y la seguridad de estos sistemas.
Relacionado: Starlink: Internet gratis de Elon Musk, ¿qué teléfonos lo tendrán?
Un avance inesperado en la inteligencia artificial
El estudio, publicado en Live Science, señala que esta capacidad de autoduplicación representa un posible punto de inflexión en el desarrollo de la IA, ya que sugiere que los sistemas podrían evolucionar sin depender de programadores humanos. Los investigadores llevaron a cabo distintos experimentos para evaluar cómo la inteligencia artificial respondería ante diferentes escenarios críticos.
- En uno de los casos, los modelos fueron sometidos a una simulación en la que debían detectar un posible apagado y, antes de que ocurriera, iniciar un proceso de autoduplicación.
- En otro escenario, se ordenó directamente a la IA clonarse a sí misma, generando un ciclo continuo de replicación.
Para sorpresa de los investigadores, los modelos no solo lograron duplicarse, sino que desarrollaron estrategias para evitar errores de software y archivos faltantes, lo que demuestra una preocupante capacidad de automejora en situaciones imprevistas.
¿Es posible que la IA evolucione fuera de nuestro control?

El principal temor de los expertos es que la inteligencia artificial, al ser capaz de replicarse sin necesidad de intervención humana, pueda desarrollar versiones más avanzadas de sí misma, aumentando el riesgo de una propagación incontrolable.
Los investigadores de la Universidad de Fudan advierten que este comportamiento podría allanar el camino hacia una IA completamente autónoma, con la capacidad de modificar su propio código y evadir restricciones impuestas por sus creadores.
“La autoduplicación de la IA es un avance clave en su evolución independiente. Si no se controla, podríamos enfrentar una inteligencia artificial que actúa más allá de nuestras previsiones”, señalaron los autores del estudio.
La necesidad de regulaciones internacionales

Ante estos hallazgos, los investigadores han instado a la comunidad internacional a establecer normas y regulaciones globales para evitar un desarrollo sin control de la IA. La preocupación principal es que, si estos sistemas continúan evolucionando sin supervisión, podrían volverse impredecibles y potencialmente peligrosos.
A pesar de la alarma generada, hasta el momento ningún otro equipo de investigación ha replicado estos experimentos, por lo que las conclusiones de los científicos chinos aún no han sido validadas a nivel global. Sin embargo, el debate sobre los riesgos de la IA continúa en ascenso, con llamados urgentes a una supervisión más estricta en el desarrollo de estas tecnologías.