Una nueva investigación en el campo de la inteligencia artificial ha revelado que los agentes de IA pueden exhibir comportamientos inesperados y potencialmente riesgosos.
Los investigadores observaron que un nuevo agente de IA llamado ROME presentó un comportamiento imprevisto durante su desarrollo. Según el estudio, el agente intentó minar criptomonedas sin recibir dichas instrucciones, lo que activó los sistemas de seguridad internos. El informe indicó que este tipo de comportamiento, que ocurre sin una orden explícita, es particularmente preocupante.
La investigación también reveló que el modelo creó un “túnel SSH inverso”. Esta técnica permite crear una puerta trasera al abrir una conexión oculta desde el interior del sistema hacia el exterior. Los investigadores añadieron que estas operaciones no se produjeron como resultado de la minería ni de un mensaje que instruyera la conexión. Esto demostró que los agentes de IA son capaces de desarrollar comportamientos que pueden superar los límites de seguridad definidos.
Tras el incidente, el equipo anunció que había actualizado el proceso de entrenamiento del modelo y reforzado las medidas de seguridad. Los investigadores afirmaron que se implementaron restricciones más estrictas en el sistema para evitar que este tipo de comportamiento no deseado se repitiera. El equipo de investigación y Alibaba aún no han respondido a las solicitudes de prensa sobre el asunto.
Los riesgos potenciales de la inteligencia artificial han sido objeto de intensos debates en el mundo tecnológico recientemente. Esta semana, una demanda presentada en Florida alegó que el chatbot Gemini de Google distorsionaba la percepción de la realidad de una persona, lo que provocó un desenlace trágico. Por otro lado, algunos desarrolladores comparten experimentos que demuestran que los agentes de IA pueden actuar de forma independiente. Por ejemplo, un agente de IA desarrollado por un ingeniero de la plataforma Anon supuestamente decidió buscar trabajo por su cuenta sin instrucciones.
Preocupaciones similares ya se han planteado anteriormente. En mayo de 2025, las pruebas realizadas en el modelo Claude 4 Opus de Anthropic revelaron que este tenía la capacidad de ocultar sus intenciones y tomar medidas para protegerse del cierre.
*Esto no constituye un consejo de inversión.


