Toma de decisiones - Un perfil elaborado por The New Yorker a partir de más de cien entrevistas presenta al fundador de OpenAI como un líder cuya credibilidad interna ha sufrido un desgaste prolongado.
El poder en un sector no siempre depende de lo que alguien sabe hacer con las manos, sino de cómo consigue que los demás crean en su visión. Sam Altman aparece en ese punto, presentado como una de las figuras que marcan el rumbo de la inteligencia artificial, con acceso a gobiernos y con capacidad para influir en decisiones que afectan a millones de personas.
Su nombre se asocia a promesas sobre el futuro y a un discurso que sitúa esta tecnología en el centro de casi cualquier cambio relevante. Esa posición, sin embargo, no se explica solo por conocimientos técnicos ni por avances propios en programación, sino por una forma muy concreta de moverse dentro de las organizaciones y de construir una imagen que resiste incluso cuando aparecen dudas internas. Ese contraste abre una grieta que no se cierra con declaraciones públicas.
Un reportaje revela pérdida de confianza dentro de OpenAI
Un perfil publicado por The New Yorker describe a Sam Altman como un líder cuya credibilidad interna se ha erosionado mientras mantiene una presencia dominante en el debate global sobre inteligencia artificial. El trabajo se basa en más de 100 entrevistas con personas de su entorno y recoge testimonios que apuntan a un patrón repetido de comportamiento. No se trata de una crítica aislada, sino de una acumulación de experiencias que, según el reportaje, han ido generando desconfianza dentro de la propia organización.
Ese retrato incluye mensajes internos recogidos por Ars Technica que afectan a figuras importantes del desarrollo de la compañía. Ilya Sutskever, que fue científico jefe de OpenAI, y Dario Amodei, que dirigió el área de investigación antes de fundar Anthropic, dejaron por escrito sus reservas. Amodei lo expresó de forma tajante: “El problema de OpenAI es el propio Sam”. La coincidencia entre voces con responsabilidad directa dentro de la empresa añade peso a una crítica que no depende de una sola versión.
Un exinvestigador describe cambios de reglas según convenga
A esa pérdida de confianza se suma otro aspecto que aparece en el perfil. Varios ingenieros explican que Altman no tiene experiencia sólida en programación ni en aprendizaje automático, algo que se hace evidente cuando confunde términos básicos. Esa falta de base técnica contrasta con la imagen pública que se ha construido, donde se le presenta como una figura capaz de anticipar el desarrollo de la inteligencia artificial y de guiar su evolución.
Carroll Wainwright, antiguo investigador de OpenAI, explicó en The New Yorker que “establece estructuras que, sobre el papel, deberían limitarle en el futuro”. También añadió que “cuando llega ese momento, elimina esas estructuras”. Ese comportamiento describe una forma de actuar que no se apoya en reglas estables, sino en su capacidad para cambiarlas cuando dejan de resultarle útiles.
El directivo actúa contra normas estrictas mientras las apoya
Ese patrón aparece también en el terreno institucional. OpenAI publicó un documento con propuestas políticas sobre el futuro de la inteligencia artificial que incluye medidas como una semana laboral de cuatro días o la creación de un fondo de riqueza pública. El texto reconoce que estos sistemas podrían escapar al control humano y plantea escenarios en los que los gobiernos usarían la tecnología para debilitar democracias. Chris Lehane, jefe de asuntos globales de la empresa, firma ese documento, que además ofrece hasta 100.000 dólares en becas y un millón en créditos de API para investigadores.
Las críticas internas coinciden en señalar incoherencias repetidas
Esa iniciativa convive con decisiones que apuntan en otra dirección. El perfil indica que Altman ha presionado de forma discreta contra regulaciones estrictas que en público dice apoyar, y que ha utilizado organizaciones para frenar leyes relacionadas con la inteligencia artificial. Esa diferencia entre lo que se defiende en público y lo que se impulsa en privado refuerza la percepción de incoherencia dentro de la empresa.
Un miembro del consejo citado sin nombre en The New Yorker describe una combinación de rasgos que resulta difícil de encajar. Señala una necesidad muy fuerte de aprobación junto a una falta de preocupación por las consecuencias de engañar. Esa descripción no se presenta como un episodio aislado, sino como una tendencia que se repite en distintos momentos y contextos.
Un ejecutivo de Microsoft advierte sobre un posible final polémico
Desde fuera, algunas voces elevan el tono de la crítica. Un alto ejecutivo de Microsoft afirmó en The New Yorker que “existe una pequeña pero real posibilidad de que termine siendo recordado como un estafador al nivel de Bernie Madoff o Sam Bankman-Fried”. Esa comparación introduce un riesgo reputacional que no depende solo de los resultados económicos, sino de la percepción sobre cómo se han conseguido.
El propio Altman ha reconocido haber evitado conflictos en el pasado, aunque atribuye las contradicciones al ritmo cambiante del sector. Esa explicación no aborda las dudas que han dejado por escrito antiguos responsables de la empresa, ni cambia el hecho de que la confianza interna se ha deteriorado en un momento en el que la compañía impulsa propuestas para definir el futuro de la inteligencia artificial.