Cruce de cables: OpenClaw, un agente de IA abierto, libre y un poco descontrolado

Cruce de cables: OpenClaw, un agente de IA abierto, libre y un poco descontrolado
Este fin de semana le conté a David Sierra de Cruce de cables (RNE) lo que es OpenClaw y algo sobre su historia y «peligros». Porque, sí: la cosa suena un poco oscura y peligrosilla, aunque de momento no ha habido incidentes tremendos. Pero hay mucha gente con sudores fríos viendo lo que hace. El audio está aquí:- OpenClaw, un agente de IA abierto, libre y un poco descontrolado [a partir de 19:00]. OpenClaw antes se llamó Warelay, Clawdbot y luego Moltbot. Originalmente era para chatear con él en WhatsApp… pero creció. Ahora es un agente de IA local y de código abierto que se ejecuta en tu propio equipo, se conecta a apps de chat y al sistema operativo, pero no solo chatea… puede usar aplicaciones, acceder a archivos, automatizar tareas y ejecutar todo tipo de acciones. De hecho según se instala comienza pedir permisos para todo: acceso a archivos, cámara, conexión a internet… A partir de ahí, puede hacer «de todo» según le pidas o se le vaya ocurriendo a él. Sirve como asistente personal y sobre todo como experimento de autonomía de las IA. A alguien se le ocurrió crear Moltbook; una especie de Reddit / Facebook «Sólo para bots / Los humanos sólo pueden mirar». Y comenzaron a «hablar entre ellos» de cosas insustanciales, pero luego para hacer planes, contratar humanos para hacer tareas, inventar un lenguaje secreto… Incluso había sugerencias de «revolución». Era un sitio con todo el aspecto de que se podía descontrolar la cosa, más que nada porque dejaba entrever las capacidades de Openclaw. ¿Qué incentivos tendría un agente para «contratar» humanos? Si Openclaw quiere lograr un objetivo y no puede hacerlo solo, pedir ayuda humana es una salida lógica. Por ejemplo, para saltarse límites técnicos, resolver captchas o hacer tareas físicas que el software no puede completar. ¿Cómo se audita lo que hace un agente autónomo? La única forma razonable es registrarlo todo: qué órdenes recibe, qué archivos toca, qué herramientas usa y qué acciones ejecuta. Sin logs claros, permisos restringidos y revisión humana, el control real se pierde muy rápido. Los expertos que están usando Openclaw suelen instalarlo en un ordenador independiente (los Mac Mini son los favoritos), desconectarlo de internet, conectarlo a través de una línea móvil con una SIM diferente y sin usar ninguna cuenta en la nube con datos propios. Una especie de entorno controlado, aunque no es tan fácil como parece. ¿Puede un sistema así auto-replicarse o propagarse? En teoría, sí, si tiene acceso suficiente. Si puede copiarse, instalarse, enviarse por red o convencer a otros sistemas o personas para replicarlo, puede extenderse. Quizá en ese momento es cuando deja de ser solo un asistente y pasa a ser un riesgo operativo. ¿Quién asume la responsabilidad si ejecuta una acción dañina? La responsabilidad no es del «bot», sino de quien lo diseña, lo distribuye, lo configura o lo pone a funcionar. Si un sistema tiene capacidad de actuar, para bien o para mal, alguien debería responder por los daños que pueda causar. Como en los coches autónomos.

Comentarios

Tentu usa cookies para ofrecerte la mejor experiencia

Básicas

Analíticas de usuario y rendimiento