- Al igual que en una pequeña empresa emergente, en OpenAI todavía se alienta a las personas a perseguir sus ideas, pero eso también da lugar a trabajos superpuestos.
En medio de una guerra de talentos entre Meta y OpenAI, Calvin French-Owen, un ingeniero que trabajó en el fabricante de ChatGPT y dejó la startup hace tres semanas, describió cómo es trabajar allí.
El graduado del MIT, que se unió a OpenAI en mayo de 2024 y se retiró en junio, publicó una detallada entrada de blog en la que reflexiona sobre su trayectoria en OpenAI, uno de los laboratorios de IA más avanzados del mundo. Afirmó que no se fue por ningún «drama», sino porque quiere volver a ser fundador de una startup. French-Owen cofundó anteriormente Segment, la startup de datos de clientes, adquirida por Twilio en 2020 por 3.200 millones de dólares.
“Quería compartir mis reflexiones porque hay mucho ruido y pocas nueces en torno a lo que hace OpenAI, pero no hay muchos testimonios de primera mano sobre cómo es realmente la cultura de trabajo allí”, escribió.
Sobre la cultura en OpenAI, dirigida por Sam Altman, French-Owen comentó que se siente como cualquier otra startup de Silicon Valley, pero también abordó algunas ideas erróneas sobre la empresa. Según él, OpenAI ha crecido demasiado rápido, de 1.000 a 3.000 empleados en tan solo un año, y hay una razón detrás de esta rápida contratación: ChatGPT es el producto de consumo de más rápido crecimiento, habiendo alcanzado los 500 millones de usuarios activos mensuales y sigue creciendo.
Sin embargo, admitió que el caos surge naturalmente cuando una empresa crece tan rápido, especialmente a la escala de OpenAI. «Todo se desmorona cuando se escala tan rápido: cómo comunicarse como empresa, las estructuras de informes, cómo distribuir productos, cómo gestionar y organizar al personal, los procesos de contratación, etc.», escribió French-Owen.
French-Owen señaló que OpenAI no depende del correo electrónico como canal de comunicación principal entre los empleados.
“Una característica inusual de OpenAI es que todo, y me refiero a todo, funciona en Slack”, escribió. “No hay correo electrónico. Recibí unos diez correos electrónicos durante todo el tiempo que estuve allí”. También observó lo que llamó una “canalización Meta → OpenAI muy significativa” en la contratación de ingenieros.
“En muchos sentidos, OpenAI se asemeja a los inicios de Meta: una aplicación de consumo de gran éxito, una infraestructura incipiente y un deseo de avanzar con gran rapidez”, señaló. Al igual que en una pequeña startup, en OpenAI se anima a los empleados a desarrollar sus ideas, pero eso también genera duplicación de tareas.
“Debo haber visto media docena de bibliotecas para cosas como gestión de colas o bucles de agentes”, dijo.
Describió la gama de talentos de programación en OpenAI como muy variada, desde veteranos de Google hasta recién graduados de doctorado con menos experiencia práctica. Dado que OpenAI utiliza Python de forma intensiva, el repositorio central de código de la empresa, o lo que él llamó «el monolito del backend», puede parecer un vertedero.
French-Owen relató la intensidad del lanzamiento de Codex, un asistente de programación de IA , calificándolo como uno de los períodos de trabajo más duros de su carrera. «El sprint de Codex fue probablemente el más duro en el que he trabajado en casi una década. Casi todas las noches me quedaba despierto hasta las 11 o la medianoche. Despertarme con un recién nacido a las 5:30 cada mañana. Volver a la oficina a las 7 de la mañana. Trabajar casi todos los fines de semana. Todos nos esforzábamos mucho como equipo porque cada semana contaba. Me recordó a cuando estaba en YC», recordó.
Su equipo, formado por unos ocho ingenieros, cuatro investigadores, dos diseñadores, dos responsables de comercialización y un director de producto, construyó y lanzó Codex en solo siete semanas, casi sin dormir.
«Nunca he visto un producto tener una aceptación tan inmediata simplemente por aparecer en la barra lateral izquierda, pero ese es el poder de ChatGPT», dijo.
French-Owen también rechazó la idea de que a OpenAI no le importe la seguridad. En los últimos meses, varios exempleados y defensores de la seguridad en IA han criticado a la empresa por no priorizar la seguridad adecuadamente. Sin embargo, según French-Owen, la atención se centra más en los riesgos prácticos que en las amenazas abstractas a largo plazo.
“Vi más enfoque en los riesgos prácticos (discurso de odio, abuso, manipulación de sesgos políticos, fabricación de armas biológicas, autolesiones, inyección inmediata) que en los teóricos como la explosión de inteligencia o la búsqueda de poder”, escribió.
Eso no quiere decir que nadie esté trabajando en esto último; sin duda, hay gente centrada en los riesgos teóricos. Pero, desde mi punto de vista, no es el enfoque principal. La mayor parte del trabajo que se está realizando no se publica, y OpenAI debería esforzarse más por difundirlo.
También describió el ambiente de trabajo en OpenAI como serio y orientado a la misión.
OpenAI también es un campo más serio de lo que cabría esperar, en parte porque hay mucho en juego. Por un lado, está el objetivo de desarrollar IA, lo que significa que hay mucho que hacer bien. Por otro lado, se intenta crear un producto del que dependen cientos de millones de usuarios para todo, desde asesoramiento médico hasta terapia», escribió.
OpenAI ha sido noticia recientemente por la pérdida de ingenieros clave de IA que se unieron a Meta. Mark Zuckerberg, cofundador y director ejecutivo de Meta, supuestamente ha ofrecido enormes compensaciones para atraer talento. El nuevo equipo de superinteligencia de Meta incluye investigadores de OpenAI, Google y Anthropic.
En una reciente entrevista de podcast, Sam Altman comentó sobre la agresiva estrategia de contratación de Meta y calificó de «locas» las bonificaciones por firmar de 100 millones de dólares.

