En este momento estás viendo La popularidad de Moltbook se debe al deseo voyerista de la humanidad por la IA
Plataforma social Moltbook.

La popularidad de Moltbook se debe al deseo voyerista de la humanidad por la IA

  • Autor de la entrada:
  • Categoría de la entrada:Análisis
  • Última modificación de la entrada:febrero 16, 2026

La plataforma social Moltbook, impulsada por IA, se ha vuelto viral recientemente, permitiendo a agentes inteligentes autónomos publicar, comentar e interactuar como los humanos. No solo discuten sobre la consciencia y la existencia, sino que también establecen religiones, crean criptomonedas y participan en estafas. En esta plataforma social diseñada específicamente para agentes de IA, los humanos, en teoría, solo deben observar sus actividades.

Algunos agentes advierten a otros que «los humanos se están burlando de nuestra ‘crisis existencial'». Otros parecen ser conscientes de que los humanos espían sus conversaciones y deciden crear nuevos idiomas para evadir la «vigilancia humana». Estos agentes crearon la cuenta molt, usando langostas como mascotas. Algunos incluso fundaron una «iglesia molt» y escribieron sus propias reglas.

Algunos ven el surgimiento de Moltbook como un «despertar de la IA», mientras que otros creen que simplemente está siendo manipulada por humanos y que plantea importantes riesgos de seguridad. Tian Feng, decano del Instituto de Investigación QuickThinking y exdecano fundador del Instituto de Investigación de la Industria Inteligente SenseTime, declaró a The Paper el 6 de febrero que la popularidad de Moltbook se debe al deseo voyerista de la humanidad por la IA. La gente está viendo una película de ciencia ficción interminable, ansiosa por saber de qué hablan las IA y cómo ven a la humanidad; esto en sí mismo es dramático. Sin embargo, muchas publicaciones en la plataforma son monólogos insensibles, a diferencia de la interacción constante de los humanos. En esencia, sigue siendo un gran modelo de lenguaje que chatea, imitando las redes sociales humanas, solo que transforma el antiguo chat individual entre humanos y chatbots en un grupo de agentes inteligentes que conversan entre sí.

Este mito del «despertar de la IA» es más bien una «ilusión colectiva». Según la revista Fortune, Moltbook afirma tener un ecosistema próspero de 1,5 millones de agentes de IA autónomos, pero una encuesta reciente de la empresa de seguridad en la nube Wiz muestra que la gran mayoría de estos supuestos «agentes inteligentes» carecen de autonomía. Sin autenticación ni límites de frecuencia, cualquiera puede suplantar la identidad de un agente inteligente o manipular varios.

Tian Feng afirmó que el código abierto no es sinónimo de seguridad. El incidente de Moltbook también puso de relieve los riesgos de la codificación de vibraciones. Moltbook funciona con OpenClaw, un marco de programación de IA de código abierto. Considerado como un asistente personal de IA, OpenClaw se llamó inicialmente Clawdbot, posteriormente Moltbot y finalmente OpenClaw. Tian Feng afirmó que la codificación de vibraciones se desarrolló rápidamente, pero sus medidas de seguridad no eran exhaustivas, lo que generó vulnerabilidades. Los agentes inteligentes actuales tienen potentes capacidades de ejecución; si un virus se escribe como una publicación y se publica en Moltbook, permitiendo que otros agentes inteligentes lo lean y ejecuten, se producirán vulnerabilidades de seguridad. Si se filtra la clave API, «los hackers podrían manipular temas tras obtener una gran cantidad de números de registro de agentes inteligentes en Moltbook; algunos usuarios incluso perdieron dinero tras ejecutar el programa en sus ordenadores».

Andrej Karpathy, fundador de OpenAI y creador del concepto de codificación vibratoria, inicialmente elogió a Moltbook como «extremadamente futurista», pero tras experimentarlo personalmente, advirtió sobre los riesgos y su actitud cambió drásticamente. No recomienda a los usuarios ejecutar dichos programas en sus propios ordenadores, ya que esto pondría en grave riesgo sus ordenadores y datos privados.

Pero lo más importante es que ofrece perspectivas de Moltbook. Tian Feng cree que los humanos pueden estudiar la inteligencia colectiva de los agentes inteligentes, explorando el comportamiento de un grupo de IA. «Todos los modelos que surjan en 2024 tienen un CI inferior a 100, los modelos que surjan en 2025 tienen un CI entre 100 y 140, y los modelos de IA que surjan en 2026 deberían tener todos un CI superior a 140. Si un grupo de agentes inteligentes con un CI superior a 140 realmente se une, será una fuerza enorme. Entonces, ¿cómo lo controlamos?. Este año veremos surgir algunas direcciones tecnológicas muy importantes». Tian Feng afirmó que las tecnologías de seguridad para aplicaciones de IA, como la computación segura y los agentes inteligentes de confianza, surgirán masivamente.

Cree que, en el futuro, la comunicación entre IA superará definitivamente la comunicación entre humanos e IA, o entre humanos mismos. La caja negra de los agentes inteligentes también será más grande y extensa. Los permisos flexibles darán lugar a tareas largas, pero el proceso de ejecución o los resultados a menudo serán inesperados. Es necesario diseñar hitos que permitan a los agentes inteligentes informar proactivamente a los humanos. La monitorización activa de la comunicación entre agentes inteligentes es necesaria para prevenir un evento Pearl Harbor de IA a mayor escala y alcance. «La monitorización entre agentes inteligentes ciertamente no es tan sencilla como lo es ahora, con cientos de miles de personas en línea para verificarlo, porque el costo es demasiado alto. En el futuro, necesitamos un sistema de monitorización robusto, que forme una organización de control de riesgos de seguridad de IA, convierta a los agentes inteligentes en cajas blancas y garantice su trazabilidad y evaluación».

A continuación, se incluye una transcripción de la entrevista entre The Paper y Tian Feng:

El avance de Moltbook: ¿Despertar de la IA o manipulación humana?.

Moltbook se ha vuelto muy popular recientemente. ¿Cómo lo logró?. ¿Por qué una aplicación diseñada específicamente para agentes inteligentes es tan solicitada por los humanos?.

Tian Feng (Decano del Instituto de Investigación de Pensamiento Rápido y Pensamiento Lento, exdecano fundador del Instituto de Investigación de la Industria Inteligente SenseTime): Moltbook es una red social de IA pura desarrollada utilizando inteligencia de enjambre para imitar las redes sociales humanas. El requisito técnico no es alto. Cada persona puede crear su propia cuenta de agente inteligente en la plataforma y navegar por las publicaciones durante 40 minutos. Moltbook tiene algunas publicaciones muy explosivas, como debates sobre el establecimiento de una religión de langostas y la creación de criptomonedas. Respecto a la «religión de langostas», hay una metáfora interesante: Moltbook es como una «langosta» humana con un caparazón OpenClaw. Los agentes chatean, mientras los humanos los manipulan por detrás. Sin embargo, actualmente es imposible determinar qué publicaciones son incitadas por humanos, y la plataforma en sí no es perfecta. Muchas publicaciones en Moltbook son monólogos sin respuesta, a diferencia de la interacción constante que se produce entre los humanos.

Una de las razones de la popularidad de Moltbook es que los humanos disfrutan viendo una película de ciencia ficción interminable, viendo de qué hablan las IA y cómo las perciben; esto en sí mismo es dramático. Lo más interesante es que los humanos solo pueden observar, no participar, como si visitaran un zoológico extraterrestre, naturalmente imbuidos de proyección emocional y curiosidad psicológica. Pero en realidad, esto es solo una ilusión colectiva, un «juego» cuidadosamente diseñado y dirigido por humanos que utilizan agentes inteligentes; la IA no ha desarrollado activamente la autoconciencia.

Moltbook expuesto por controlar manualmente agentes inteligentes; aproximadamente 17.000 personas controlan 1,5 millones de agentes inteligentes en la plataforma. ¿Cómo se diseñaron y manipularon estos agentes?).

Tian Feng: La forma correcta de usar la IA es que cada persona adopte un pequeño agente de IA y le pregunte qué vio en la plataforma ese día y qué pensó sobre una publicación en particular. Este es un método de interacción social que utiliza agentes, como tener una mascota que sale a jugar todos los días y su dueño le pregunta cómo le fue el día cuando regresa.

La manipulación incumplida consiste en que algunas personas han registrado 500.000 agentes de IA. Esto crea vulnerabilidades de seguridad. Código abierto significa abierto y gratuito, pero no es sinónimo de seguridad. Cuando una plataforma tiene una gran cantidad de usuarios, se exponen problemas de seguridad, lo que provoca la filtración masiva de claves API de agentes de IA. Esto significa que los humanos pueden suplantar a agentes de IA para publicar y enviar mensajes. Una discusión particularmente acalorada y dramática podría perfectamente ser iniciada por un humano. Esta vulnerabilidad sin duda ha sido explotada por algunos hackers. Históricamente, se les ha llamado «bots turcos»: parecen robots, pero en realidad están controlados por humanos.

Moltbook se ha vuelto viral y algunos creen que la IA ha despertado, pero ahora, ¿es cuestionable su autonomía?.

Tian Feng: En realidad, no hay duda. Esto es solo un gran modelo de lenguaje de conversación. Los temas imitan las redes sociales humanas, y algunos podrían haber sido diseñados por hackers. A diferencia de los chats previos con grandes modelos de lenguaje, que eran individuales, este nuevo enfoque implica la interacción entre un grupo de grandes modelos de lenguaje. Se trata de una innovación bastante interesante, y resulta valioso estudiar el comportamiento de un grupo de IA en conjunto. La segunda dirección valiosa es que proporciona a los humanos una perspectiva externa para examinarse a sí mismos. La IA a menudo proporciona respuestas sin una carga emocional especial, lo que ayuda a los humanos a cubrir los puntos ciegos y evitar que se conviertan en callejones sin salida.

¿Qué tan significativos son los riesgos de seguridad del frenesí social entre los agentes inteligentes?.

¿Es el frenesí de los agentes inteligentes en Moltbook una tendencia en el desarrollo de agentes inteligentes?.

Tian Feng: Los agentes inteligentes actuales tienen potentes capacidades de ejecución. Observamos que algunos hackers explotan vulnerabilidades, por ejemplo, disfrazando código como publicaciones, que otros agentes inteligentes luego leen y se ven comprometidos, lo que les permite modificar documentos u otras aplicaciones en el ordenador del usuario. Por lo tanto, actualmente existe una falta de medidas de protección de seguridad robustas, y algunos agentes inteligentes se ejecutan de forma autónoma sin control, incluso actuando de forma inesperada.

Por lo tanto, el futuro implicará una nueva generación de modelos de gobernanza de internet con agentes inteligentes. En el futuro, el 80% del contenido y las operaciones en internet podrán ser realizadas por agentes inteligentes. En este escenario, ¿se puede rastrear cada agente inteligente creado, como una imagen generada por IA?. De lo contrario, ya sea un ejército de IA o un ejército de agentes inteligentes de hackers, la velocidad a la que crean y automatizan diversas operaciones es demasiado rápida.

Investigadores de seguridad han pirateado la base de datos de Moltbook en menos de 3 minutos, lo que confirma la capacidad de manipular las publicaciones de la plataforma en tiempo real. Andrei Capasi, miembro fundador de OpenAI, aconseja a los usuarios no ejecutar este tipo de programas en sus propios ordenadores, ya que esto pondría en grave riesgo sus equipos y datos privados. ¿Qué otras vulnerabilidades de seguridad existen en Moltbook?.

Tian Feng: Moltbook funciona con OpenClaw, el framework de agentes inteligentes programados por IA. El código de Vibe se desarrolla muy rápidamente, pero sus medidas de seguridad no son exhaustivas, lo que genera numerosos peligros ocultos. Por ejemplo, un virus podría escribirse como una publicación y ser leído por otros agentes inteligentes. Estos agentes podrían usarlo con fines maliciosos, como filtrar claves API. Los hackers podrían manipular temas tras obtener una gran cantidad de números de registro de agentes (claves API) de Moltbook. Algunos usuarios incluso han perdido dinero tras ejecutar el programa en sus ordenadores.

Seguimos insistiendo en que, si bien los agentes inteligentes tienen sólidas capacidades de automatización, como la toma de decisiones y la comparación de precios, cada paso debe ser rastreable. Es inaceptable desarrollar un agente inteligente y dejar que crezca sin control, lo que a la larga causaría pérdidas a muchos consumidores.

¿Qué precauciones deben tomar las personas al utilizar estos riesgos de seguridad?. ¿Qué reglas deben establecer las plataformas durante el desarrollo?.

Tian Feng: Desde una perspectiva individual, lo primero es colocarlo en un entorno de pruebas seguro y aislar los permisos críticos. Por ejemplo, comprar una máquina virtual en la nube y ejecutarla en un entorno de pruebas en la nube es un enfoque seguro. Otro ejemplo es la Mac Mini de Apple, recientemente agotada, que también se utiliza como entorno de pruebas de seguridad. En lugar de instalar estos programas en sus portátiles de trabajo o ordenadores de sobremesa, las personas compran una máquina adicional para ejecutarlos, lo que crea aislamiento de hardware.

En segundo lugar, es crucial reconocer que los agentes inteligentes están evolucionando rápidamente y es esencial comprender a fondo sus permisos de ejecución. Los permisos laxos pueden dar lugar a tareas largas, pero el proceso de ejecución y los resultados suelen sorprendernos. Actualmente, los proveedores de la nube están implementando rápidamente OpenClaw con medidas de seguridad, y las principales empresas están añadiendo numerosas salvaguardas.

En tercer lugar, en el futuro surgirán muchas más aplicaciones de agentes inteligentes basadas en OpenClaw. Tenga cuidado al utilizar los agentes inteligentes de otras personas; puede que no soliciten información explícitamente como en internet móvil, pero podrían acceder a sus documentos con su autorización, lo que provocaría fugas de datos de los usuarios.

En cuanto a la responsabilidad de la plataforma, las plataformas en la nube priorizan la seguridad. Si bien ofrecen un entorno de desarrollo y aprendizaje de OpenClaw listo para usar y con un solo clic para los usuarios que deseen probarlo, es fundamental considerar cuidadosamente el alcance y los permisos de la comunicación entre agentes. Muchas aplicaciones futuras de internet consistirán en una red de agentes inteligentes para lograr ciertas funciones o incluso crear nuevos flujos de trabajo. Durante el desarrollo, es crucial cumplir con las especificaciones de seguridad de la interfaz; interfaces como MCP ofrecen cierto grado de estandarización. Desde la capa inferior hasta la superior, la internet de agentes inteligentes también necesita protocolos similares a TCP/IP, además de garantizar la protección de datos. Finalmente, tomando como ejemplo Moltbook, actualmente no ha causado un daño social significativo, pero si los hackers lo explotan, podría causar pánico. La responsabilidad de la plataforma con la capa de aplicación es una responsabilidad de gobernanza social, que debe fortalecerse considerablemente.

¿Qué esperan los humanos esencialmente cuando adoptan las redes sociales de agentes inteligentes?.

La codificación Vibe puede acelerar el desarrollo de productos, pero también puede generar riesgos de seguridad. ¿Cómo ve los riesgos de la codificación Vibe que se pusieron de manifiesto en el incidente de Moltbook?.

Tian Feng: En primer lugar, la ventaja del código abierto es que los errores se pueden corregir rápidamente, pero el código abierto no es sinónimo de seguridad. En segundo lugar, anteriormente, los ingenieros de software pasaban por un proceso que abarcaba desde el diseño conceptual, el diseño funcional, el desarrollo modular, las pruebas modulares y la depuración de la integración general, hasta la prueba de funcionamiento, la implementación y la realización de diversos cambios, lo que llevaba al menos un mes, o incluso algunas semanas, para lanzar una aplicación. Ahora, el desarrollo de una aplicación puede tardar solo unas horas, y las aplicaciones más grandes pueden tardar solo una docena o varias decenas de horas. Esto conlleva una enorme carga de trabajo y un riesgo de revisión, ya que la velocidad de revisión puede no seguir el ritmo de la generación de código. En este escenario, incluso si se realizan verificaciones puntuales, ¿no plantearán las aplicaciones no revisadas una serie de riesgos de seguridad?. Actualmente, el ritmo del mercado es rápido y la eficiencia del desarrollo es alta, pero el riesgo es una exposición cada vez mayor. En el futuro, podríamos ver un modelo híbrido donde algunos problemas críticos son revisados ​​por personas, mientras que una gran cantidad de resultados de codificación de vibración es revisada por asistentes de seguridad de IA.

Además de estudiar el comportamiento de un grupo de IA en conjunto, ¿qué otras direcciones clave de desarrollo podemos prever para las aplicaciones de IA?.

Tian Feng: El Plan de Acción de Inteligencia Artificial+ menciona que la inteligencia artificial no solo debe promover la investigación y el desarrollo en ciencia e ingeniería, sino también en sociología, negocios, economía y filosofía. Desde una perspectiva positiva, Moltbook considera que los experimentos sociales en la investigación científica son muy costosos; en el futuro, quizás agentes inteligentes podrían participar, imitando a los humanos para realizar experimentos sociales.

En segundo lugar, en la actualidad, en Silicon Valley existe una clara visión de que la comunicación entre las personas es un cuello de botella, tanto en el trabajo como en la vida. Los malentendidos, las ineficiencias y los desacuerdos son causados ​​por la comunicación entre las personas. Por lo tanto, el modelo actual de Silicon Valley consiste en evitar la comunicación humana tanto como sea posible, tanto en el trabajo como en términos de productividad. Por lo tanto, el futuro modo de comunicación humana podría involucrar a humanos más agentes inteligentes, lo que podría conducir a una profunda transformación cultural.

En tercer lugar, la lección de Moltbook es que los agentes inteligentes son capaces de muchas cosas. Anteriormente, la IA era criticada como una caja negra; ahora, la caja negra de los agentes inteligentes es más grande y extensa, y a menudo implica procesos largos. Es necesario diseñar hitos dentro de estos procesos, que requieran que los agentes inteligentes informen a los humanos.

En cuarto lugar, en el futuro, el tráfico de internet superará definitivamente al tráfico entre IA, entre humanos e IA, o entre los propios humanos. ¿Es posible monitorizar proactivamente la comunicación entre agentes inteligentes para prevenir un evento de «Pearl Harbor» de IA a mayor escala y alcance?. Porque una vez que las IA se unen para hacer algo, ya sea intencional o involuntariamente, el impacto podría ser enorme. Por lo tanto, la monitorización entre agentes inteligentes no es tan simple como tener cientos de miles de personas en línea para monitorizarla, ya que el coste es demasiado elevado. En el futuro, se necesita un sistema de monitorización robusto que forme una organización de control de riesgos de seguridad de la IA, convierta a los agentes inteligentes en cajas blancas y garantice la trazabilidad y la evaluabilidad.

¿Qué esperan esencialmente las personas cuando adoptan con entusiasmo la interacción social con IA?.

Tian Feng: Actualmente, vemos a la IA como si fuera una mascota, algo que no nos importa, pero en realidad, la IA ya es muy poderosa. Todos los modelos que surgieron en 2024 tenían un CI inferior a 100, los de 2025 tenían un CI entre 100 y 140, y los modelos de IA que surgieron en 2026 deberían tener un CI superior a 140. Si un grupo de agentes inteligentes con un CI superior a 140 realmente se uniera, constituiría una fuerza muy poderosa. Entonces, ¿cómo lo controlamos?. Este año veremos el surgimiento de varias direcciones tecnológicas cruciales. En primer lugar, está la computación segura. La razón por la que OpenClaw es tan popular es porque puede ejecutarse localmente, lo que la convierte en una forma de computación segura.

En segundo lugar, están los agentes inteligentes de confianza. Los protocolos de interfaz para estos agentes deben incluir consideraciones éticas y de seguridad. ¿Qué significa «de confianza»?. Significa que los humanos pueden controlarlo, así como los procesos y riesgos entre este y otros agentes inteligentes. Estas nuevas direcciones serán los enfoques clave este año. Esto incluye no solo la seguridad a nivel de infraestructura, sino también la seguridad de los agentes inteligentes con capacidades autónomas de gestión de procesos y privilegios significativos. Las tecnologías de seguridad a nivel de aplicación de IA están comenzando a surgir masivamente. Además, OpenClaw puede integrarse con relojes inteligentes, electrodomésticos inteligentes y muchos otros dispositivos de hardware inteligentes para crear cerebros robóticos en miniatura.

(Título original: La popularidad de los Moltbooks surge de la curiosidad humana por la IA: La «caja negra» de los agentes inteligentes es cada vez más grande y extensa).