La última ola de entusiasmo por la IA nos ha traído una mascota inesperada: una langosta. Clawdbot, un asistente personal de IA, se volvió viral a las pocas semanas de su lanzamiento y mantendrá su temática de crustáceos a pesar de tener que cambiar su nombre a Moltbot tras una demanda de Anthropic. Pero antes de que te sumes a la tendencia, esto es lo que necesitas saber.
Fiel a su lema, Moltbot (anteriormente Clawdbot) es la «IA que realmente hace cosas», ya sea gestionar tu calendario, enviar mensajes a través de tus aplicaciones favoritas o registrarte para vuelos. Esta promesa ha atraído a miles de usuarios dispuestos a afrontar la configuración técnica necesaria, a pesar de que comenzó como un proyecto personal rudimentario creado por un desarrollador para su propio uso.
Ese hombre es Peter Steinberger, un desarrollador y fundador austriaco conocido en línea como @steipete y que publica activamente en su blog sobre su trabajo. Tras alejarse de su proyecto anterior, PSPDFkit, Steinberger se sintió vacío y apenas tocó su ordenador durante tres años, según explicó en su blog. Pero finalmente recuperó su chispa, lo que le llevó a crear Moltbot.
Si bien Moltbot es ahora mucho más que un proyecto individual, la versión pública aún deriva de Clawd, «el asistente de Peter», ahora llamado Molty, una herramienta que creó para ayudarle a «gestionar su vida digital» y «explorar lo que puede ser la colaboración entre humanos e IA».
Para Steinberger, esto significó profundizar en el impulso en torno a la IA que había reavivado su pasión por la creación. Un «claudoadicto» confeso, inicialmente nombró su proyecto en honor al producto estrella de IA de Anthropic, Claude. Reveló en X que Anthropic posteriormente lo obligó a cambiar la marca por motivos de derechos de autor. Contactamos a Anthropic para obtener comentarios. Pero el «alma de langosta» del proyecto permanece inalterada.
Para sus primeros usuarios, Moltbot representa la vanguardia de la utilidad de los asistentes de IA. Quienes ya estaban entusiasmados con la posibilidad de usar IA para generar rápidamente sitios web y aplicaciones están aún más interesados en que su asistente personal de IA realice tareas por ellos. Y, al igual que Steinberger, están deseando experimentar con él.
Esto explica cómo Moltbot acumuló más de 44.200 estrellas en GitHub tan rápidamente. Se le ha prestado tanta atención viral que incluso ha movido los mercados. Las acciones de Cloudflare subieron un 14% en la sesión previa a la apertura del mercado el martes, ya que el revuelo en redes sociales en torno al agente de IA reavivó el entusiasmo de los inversores por la infraestructura de Cloudflare, que los desarrolladores utilizan para ejecutar Moltbot localmente en sus dispositivos.
Aun así, aún queda mucho por recorrer para superar la fase de adopción temprana, y quizás sea lo mejor. Instalar Moltbot requiere conocimientos técnicos, y eso también incluye ser consciente de los riesgos de seguridad inherentes.
Por un lado, Moltbot está diseñado pensando en la seguridad: es de código abierto, lo que significa que cualquiera puede inspeccionar su código en busca de vulnerabilidades, y se ejecuta en tu ordenador o servidor, no en la nube. Pero, por otro lado, su propia premisa es inherentemente arriesgada. Como señaló el empresario e inversor Rahul Sood en X, «hacer cosas de verdad» significa «poder ejecutar comandos arbitrarios en tu ordenador».
Lo que le quita el sueño a Sood es la «inyección de mensajes a través del contenido», donde una persona maliciosa podría enviarte un mensaje de WhatsApp que podría llevar a Moltbot a realizar acciones no deseadas en tu ordenador sin tu intervención ni conocimiento.
Ese riesgo se puede mitigar parcialmente con una configuración cuidadosa. Dado que Moltbot es compatible con varios modelos de IA, es posible que los usuarios prefieran elegir la configuración en función de su resistencia a este tipo de ataques. Pero la única forma de prevenirlo por completo es ejecutar Moltbot de forma aislada.
Esto puede ser obvio para desarrolladores experimentados que se dedican a retocar un proyecto de semanas, pero algunos se han vuelto más explícitos al advertir a los usuarios, atraídos por la expectación: las cosas podrían ponerse feas rápidamente si abordan el tema con la misma despreocupación que ChatGPT.
El propio Steinberger recibió un recordatorio de la existencia de actores maliciosos cuando «se equivocó» al cambiar el nombre de su proyecto. Se quejó en X de que «estafadores de criptomonedas» habían usurpado su nombre de usuario de GitHub y creado proyectos falsos de criptomonedas en su nombre, y advirtió a sus seguidores que «cualquier proyecto que lo incluya como propietario de la moneda es una ESTAFA». Luego publicó que el problema de GitHub se había solucionado, pero advirtió que la cuenta legítima de X es @moltbot, «no ninguna de las 20 variantes fraudulentas».
Esto no significa necesariamente que debas evitar Moltbot en esta etapa si tienes curiosidad por probarlo. Pero si nunca has oído hablar de un VPS (un servidor privado virtual, que es esencialmente un ordenador remoto que se alquila para ejecutar software), quizá prefieras esperar tu turno. (Ahí es donde quizás quieras ejecutar Moltbot por ahora. «No en el portátil con tus claves SSH, credenciales de API y administrador de contraseñas», advirtió Sood).
Actualmente, ejecutar Moltbot de forma segura implica ejecutarlo en un ordenador independiente con cuentas desechables, lo que frustra el propósito de contar con un asistente de IA útil. Y solucionar este dilema entre seguridad y utilidad podría requerir soluciones que escapan al control de Steinberger.
Aun así, al crear una herramienta para resolver su propio problema, Steinberger demostró a la comunidad de desarrolladores lo que los agentes de IA realmente podían lograr y cómo la IA autónoma podría finalmente volverse realmente útil, en lugar de simplemente impresionante.

