Etiqueta: OpenAI

  • El imperio de la IA

    El imperio de la IA

    Karen Hao, ingeniera del MIT y una de las periodistas más influyentes en inteligencia artificial, presenta una investigación que desafía la narrativa dominante sobre OpenAI y el ecosistema de IA. Su libro El imperio de la IA: Sam Altman y su carrera por dominar el mundo —basado en más de 300 entrevistas con 260 personas y siete años de cobertura— no es una celebración tecnológica. Es una radiografía de estructuras de poder que operan con lógica imperial en pleno siglo XXI.

    La tesis central: Más allá del producto, el imperio

    Hao sostiene que las empresas de IA como OpenAI ya no pueden entenderse como simples startups que venden productos y servicios. Son nuevas formas de imperio que terraforman el planeta, redefinen la geopolítica y desarrollan una influencia controladora sobre prácticamente todos los aspectos de nuestras vidas.

    Esta metáfora no es retórica. Hao articula cuatro paralelos estructurales con los imperios históricos que resultan particularmente reveladores para cualquiera que intente comprender las dinámicas ocultas de transformación digital:

    Apropiación de recursos ajenos: Los imperios de la IA reclaman datos y propiedad intelectual simplemente porque están «disponibles públicamente», rediseñando las reglas para legitimizar esa apropiación. Artistas, escritores y creadores ven su trabajo utilizado bajo la justificación del «uso justo».

    Explotación laboral sistémica: El libro documenta extensamente el trabajo de etiquetadores de datos en Kenia, Colombia y otras regiones del Sur Global —personas que realizan tareas esenciales pero invisibles, pagadas miserablemente y expuestas a contenido traumático. Un trabajador keniano entrevistado, Mophat Okinyi, revisaba 15.000 piezas de contenido mensualmente, incluyendo material extremadamente perturbador, como parte del esfuerzo por filtrar los outputs tóxicos de los modelos de OpenAI.

    Monopolización de la producción de conocimiento: La industria ha absorbido prácticamente a todos los investigadores de IA del mundo académico. Hao plantea una analogía incómoda: «si la mayoría de los científicos climáticos fueran financiados por la industria de combustibles fósiles, no tendríamos una imagen clara de la crisis climática». Lo mismo ocurre con la investigación en IA.

    Narrativa competitiva como justificación: OpenAI ha redefinido constantemente quién es el «imperio malvado» según convenga —primero Google, luego China— para justificar su expansión agresiva, del mismo modo que los imperios coloniales justificaban sus acciones como «misiones civilizadoras».

    La religión de la AGI: Boomers, doomers y puntos ciegos culturales

    Quizás el hallazgo más sorprendente de la investigación de Hao es la existencia de lo que ella denomina movimientos cuasi-religiosos dentro de Silicon Valley respecto a la inteligencia artificial general (AGI).

    El propio Sam Altman escribió en 2013, dos años antes de cofundar OpenAI: «Las personas exitosas crean empresas. Las más exitosas crean países. Las más exitosas de todas crean religiones» —y reflexionaba que los fundadores más exitosos no buscan crear empresas sino religiones, y fundar una empresa es simplemente la manera más fácil de hacerlo.

    Esta «religión de la AGI» tiene dos facciones principales: los boomers, que creen que la AGI traerá el paraíso, y los doomers, que temen que destruya la civilización. Ambas posturas comparten una premisa común: que la AGI es posible, inminente y transformará catastróficamente la civilización. Sin embargo, el 75% de los investigadores de IA actualmente no cree que existan las técnicas disponibles para crear AGI y tienen dudas sobre si es posible.

    Esta dinámica explica comportamientos que de otra manera parecerían incomprensibles. En el libro, Hao describe cómo Ilya Sutskever, cofundador y ex científico jefe de OpenAI, quemó una efigie de madera en un retiro corporativo representando una AGI «bien alineada» que resultó ser engañosa, proclamando que era responsabilidad de OpenAI eliminarla. Los empleados entrevistados describían con voz temblorosa la posibilidad de que la tecnología pudiera destruir a la humanidad.

    Lo más relevante es que esta intensidad ideológica funciona simultáneamente como motor y como punto ciego. El fervor que impulsa la ambición también se convierte en fitros que impiden ver la evidencia real sobre los impactos de las acciones. El fin justifica los medios.

    La metamorfosis de OpenAI: De nonprofit a imperio valorado en 300.000 millones

    Hao fue la primera periodista en perfilar OpenAI en 2019, cuando la empresa tenía apenas unos 100-150 empleados. Lo que descubrió entonces ya anticipaba la transformación que vendría.

    OpenAI se fundó a finales de 2015 como un antídoto a Google: si Google era con fines de lucro, OpenAI sería nonprofit; si Google era opaco, OpenAI sería transparente; si Google era competitivo, OpenAI sería colaborativo. La premisa: prevenir que la tecnología más poderosa de la humanidad cayera en manos de una única empresa orientada al beneficio.

    Sin embargo, año y medio después de su fundación, la organización se enfrentó a una realidad incómoda. Decidieron que la manera más rápida de ganar en IA era construir modelos cada vez más grandes, entrenados en datasets y con nuevas supercomputadoras. Eso requería un capital que ningúna nonprofit podría jamás recaudar.

    La salida de Elon Musk en 2018 no fue, como él afirmó posteriormente en demandas judiciales, porque Altman hubiera traicionado la misión original. Fue porque Musk y Altman no pudieron acordar quién sería CEO del nuevo brazo con fines de lucro. Cuando Sutskever y Brockman eligieron inicialmente a Musk, Altman apeló a su relación personal con Brockman para revertir la decisión. Musk, al no obtener el control, decidió retirarse y perseguir su propia versión en Tesla.

    La partida de Musk dejó a OpenAI en una crisis existencial: él había prometido verbalmente mil millones de dólares que nunca llegaron. Reid Hoffman actuó como salvavidas temporal, hasta que Altman convenció a Satya Nadella en la Sun Valley Conference de invertir en OpenAI, lo que definiría el futuro de la compañía.

    Noviembre de 2023: La anatomía de un golpe fallido

    El despido y recontratación de Sam Altman en cinco días representa un caso de estudio sobre las tensiones irresolubles entre ideología, gobierno corporativo y dinámicas de poder.

    Dos fuerzas colisionaron. Por un lado, el consejo nonprofit estaba orientado hacia la facción doomer, convencido de que una decisión equivocada podría tener consecuencias catastróficas. Por otro, varios ejecutivos habían llegado al límite de su frustración con el estilo de liderazgo de Altman: contaba diferentes historias a diferentes personas, generando conflictos internos sin resolución posible.

    Hao documenta que Altman decía a un equipo «estoy de acuerdo contigo, tienes toda la razón» y al equipo contrario decía exactamente lo mismo, dejando que los conflictos escalaran sin mediación. Dos ejecutivos llevaron estas preocupaciones al consejo, que interpretó la situación a través de su lente ideológica: si Altman erosionaba la capacidad de tomar decisiones sólidas sobre el desarrollo de tecnología potencialmente catastrófica, tenía que irse.

    El error estratégico del consejo fue de comunicación: el despido se anunció sin detalles sustanciales, dejando a empleados confundidos y luego furiosos. El 95% firmó una carta amenazando con renunciar si el consejo no dimitía y Altman no era restituido. La oferta de Microsoft de acoger a todos los desertores presionó aún más la situación.

    Las consecuencias fueron profundas. Quienes habían cuestionado a Altman se fueron a fundar sus propias empresas —incluyendo Sutskever, quien creó Safe Superintelligence—. La facción doomer concluyó que había sido cooptada y que permanecer solo perpetuaría objetivos con los que no estaban de acuerdo. OpenAI eliminó los choques ideológicos intensos, convirtiéndose en una empresa orientada al producto y al beneficio.

    El perfil de Altman: ¿genio visionario o arquitecto de caos?

    Hao presenta un retrato matizado de Altman que evita tanto la hagiografía como la demonización simplista.

    Sus talentos son innegables: extraordinario para recaudar capital y para reclutar talento de primer nivel. Construye narrativas sobre el futuro tan convincentes que personas e instituciones quieren formar parte de ese futuro, ya sea invirtiendo dinero o tiempo. Ha levantado miles de millones de dólares sin evidencia clara de que OpenAI pueda convertirse en un negocio rentable.

    El problema, según múltiples fuentes del libro, es que estas narrativas varían según la audiencia. Cuando Hao preguntaba si Altman era honesto, obtenía respuestas polarizadas: algunos decían que sí, otros que era «un mentiroso absoluto». Al preguntar qué había dicho Altman específicamente en reuniones durante diferentes épocas, descubrió que efectivamente contaba cosas totalmente diferentes a diferentes personas.

    Este patrón no es nuevo. Su startup anterior, que supuestamente «cambiaría el mundo», fracasó, y las críticas del equipo de liderazgo fueron idénticas a las que emergieron en OpenAI: diferentes mensajes para diferentes audiencias, erosión de la cohesión de la empresa y ambiente caótico.

    La contratación reciente de Fidji Simo como CEO de Aplicaciones refleja, según el propio Altman, que no le gusta dirigir grandes empresas ni es bueno en gestión operativa. Él se ve como «CEO visionario» —fundraising y reclutamiento— mientras Simo asume el rol operacional que antes tenía Mira Murati.

    Costos invisibles: Lo que no aparece en los comunicados de prensa

    El libro dedica una atención considerable a aspectos que rara vez son asumidos por la industria.

    Trabajo precario en el Sur Global: Trabajadores en Kenia y Colombia que entrenan modelos, moderan contenido y realizan etiquetado de datos enfrentan condiciones de explotación sistemática. Contratos de semanas sin seguridad laboral, salarios que no alcanzan para sobrevivir, exposición a contenido traumático sin apoyo psicológico adecuado, y la invisibilidad total de su contribución. Angela Chukunzira, activista keniana de derechos digitales, lo describe directamente: «Esto es una continuación de la esclavitud y el colonialismo. Es nuestro trabajo y nuestras materias primas los que siguen alimentando estas revoluciones».

    Impacto ambiental: Los centros de datos requieren enormes cantidades de agua para la refrigeración de equipos, conectándose con frecuencia al suministro de agua potable. El consumo energético y la contaminación del aire afectan desproporcionadamente a comunidades de clase trabajadora.

    Erosión del mercado laboral: No se trata solo de automatización de empleos existentes, sino de eliminar los perfiles junior, lo que hace cuestionar la inversión en educación universitaria.

    La pregunta que importa: ¿A quién sirve esta estructura?

    La pregunta que emerge de la investigación de Hao no es si debemos confiar en Sam Altman específicamente. Es más profunda: ¿deberíamos confiar en cualquier empresa estructurada de manera que una persona o un pequeño grupo tomen decisiones con efectos profundos sobre miles de millones de vidas?

    Ninguna persona está preparada para esa responsabilidad. Todos tenemos puntos ciegos, cosmovisiones específicas, incapacidad de relacionarnos con ciertos tipos de personas o formas de vivir. Tecnología construida por un grupo reducido para ocho mil millones inevitablemente fallará para muchos.

    Hao plantea que el futuro de la IA no está predeterminado. Las alternativas al modelo imperial existen, y a través de acción colectiva —activistas, legisladores, investigadores, ciudadanos— es posible dar forma a un futuro más democrático, sostenible y genuinamente beneficioso.


    La relevancia de El imperio de la IA trasciende el interés por OpenAI o la tecnología específica. Ofrece un caso de estudio extraordinariamente documentado sobre cómo las organizaciones pueden creer genuinamente en su propia narrativa altruista mientras sus estructuras y acciones producen exactamente lo opuesto. La brecha entre misión declarada y realidad operativa, las justificaciones ideológicas que permiten ignorar la evidencia contradictoria, la consolidación de poder bajo retórica colaborativa —son patrones que cualquiera reconocerá.

    Comprender estos contextos no es pesimismo tecnológico. Es condición necesaria para navegar en una era donde la velocidad del cambio ha superado la capacidad de respuesta de la mayoría de las organizaciones. Y donde la incertidumbre solo se convierte en ventaja cuando se comprende primero lo que realmente está en juego.