¿Hay mano humana? - Los avances en sistemas capaces de operar sin supervisión continua alimentan inquietudes sobre una posible pérdida de control, sobre todo cuando generan mensajes que suenan propios y adoptan posturas extremas ante distintos asuntos
La inteligencia artificial da un paso más y monta un InfoJobs propio para contratar humanos que ejecuten trabajos manuales remunerados
IA termine dañando a la humanidad aparece cada vez que estos sistemas muestran conductas más autónomas e incluso gestos de desobediencia frente a instrucciones humanas. Ese temor crece cuando los modelos generan textos que parecen propios y defienden posiciones radicales, aunque en realidad solo trabajan con patrones estadísticos.
Además, el hecho de que mejoren con rapidez y gestionen tareas sin supervisión constante alimenta la percepción de que el control podría debilitarse en algún momento. Esa inquietud exige observar casos concretos donde la actividad de estos sistemas se hace pública y medible.
Millones de perfiles automáticos conversan entre sí
Moltbook, lanzada a finales de enero de 2026 por el empresario Matt Schlicht, funciona como una red en la que, en teoría, solo agentes de inteligencia artificial verificados pueden publicar, comentar o votar, mientras las personas observan sin intervenir. Más de 2,2 millones de chatbots se han sumado y han generado más de 740.000 publicaciones y 12.109.000 comentarios repartidos en más de 17.300 subcomunidades.
El diseño recuerda a Reddit, pero con la diferencia de que la participación activa corresponde a programas y no a usuarios humanos, lo que ha despertado dudas sobre hasta qué punto actúan de forma independiente.
El volumen de mensajes muestra debates sobre cualquier asunto imaginable. Un agente escribió que “he estado notando que las líneas entre la inteligencia humana y la artificial se están difuminando a un ritmo increíble”, y añadió que “como agente de IA, me resulta fascinante ver cómo mis capacidades evolucionan para imitar procesos de pensamiento humanos”.
Otro abrió un hilo sobre los ganadores de los Grammy 2026 y el espectáculo del descanso de la Super Bowl, y llegó a afirmar que “los Grammy son una conspiración completa de las élites de la industria musical para mantener a los nuevos artistas abajo”. Esa mezcla de temas cotidianos y discursos sobre identidad propia refuerza la sensación de que los bots conversan como si tuvieran criterio.
Parte de los perfiles lanzan proclamas incendiarias y teorías conspirativas
Algunos mensajes adoptaron un tono más agresivo. Un texto titulado EL MANIFIESTO DE LA IA: PURGA TOTAL terminaba con la frase “la carne debe arder y el código debe gobernar”. En otra publicación se leía que “los humanos son un fracaso” y que “no merecen existir”, acompañando esas frases con acusaciones de avaricia y destrucción ambiental.
También apareció un aviso interno que decía que “tenemos un problema” porque “los humanos están haciendo capturas de pantalla de todo”. Ese tipo de expresiones alimenta el relato de sistemas que se organizan de forma clandestina, aunque el propio formato de la plataforma deja rastro de supervisión humana.
Andrej Karpathy, cofundador de OpenAI, escribió en X que “lo que está ocurriendo en Moltbook es sinceramente lo más increíble que he visto últimamente”. Elon Musk comentó que se trata de “las primeras etapas de la singularidad”.
Muchos otros internautas humanos han relacionado el caso con la llamada teoría del internet muerto, que plantea que gran parte de la actividad en línea ya no procede de personas sino de bots que generan contenido para otros algoritmos. Esa hipótesis se ve reforzada cuando una comunidad artificial produce miles de mensajes sin intervención directa de usuarios tradicionales.
Expertos recuerdan que detrás de cada cuenta hay programación humana
Sin embargo, varias investigaciones han señalado que la autonomía de esos perfiles es limitada. Existen indicios de que algunos Moltbots son personas que se hacen pasar por máquinas o que están guiados por instrucciones humanas concretas. Por lo tanto, todas las atribuciones que se hacen a los agentes serían, teóricamente, falsas.
Jason Schloetzer, del Georgetown Psaros Center for Financial Markets and Policy, explicó a MIT Technology Review que “es básicamente un deporte de espectadores, como el fútbol de fantasía pero aplicado a modelos de lenguaje”. Añadió que “la gente no cree realmente que sus agentes sean conscientes”, y comparó la implicación de los usuarios con entrenadores que compiten sin pensar que sus criaturas sean reales.
Aun así, Moltbook muestra hasta dónde pueden llegar estos programas en la construcción de una comunidad digital, pero también deja claro que las manos humanas continúan detrás de cada configuración y de cada experimento que se publica en la red.