Salida de Mira Murati: Cambios Estratégicos en OpenAI

Y es que hoy, una de las caras visibles de OpenAI, Mira Murati, ha comunicado que dejará la compañía tan pronto cierre el proceso de transición. Según sus palabras, “Me voy porque quiero crear el tiempo y espacio para hacer mi propia exploración». Junto a ella, se marchan Bob McGrew, el jefe de investigación de la organización, así como el vicepresidente de la misma área, Barret Zoph.

Todo esto está ocurriendo en el momento en el que Sam Altman está recreando el Hype alrededor de la IA General, para captar más inversión para la compañías. Y aunque está teniendo éxito en el proceso, es lógico que OpenAI pivote a otro tipo de organización, ya que ahora es una organización sin ánimo de lucro, y bueno… no es solo es cuestión de lucro, es que pierde 5.000 millones de dolares al año…

Así que lo más probable es que junto a los nuevos inversores vendrán nuevas condiciones, como un cambio en el modelo de negocio para hacerlo sostenible.

Por lo tanto, la salida de Mira Murati, quien ha sido una figura central en el desarrollo y liderazgo de OpenAI, nos indica que probablemente hay tensiones dentro de la organización en cuanto a su futuro estratégico. Si bien no conocemos los detalles internos de estas decisiones, es razonable pensar que el cambio en el liderazgo y las decisiones estratégicas estén relacionados con la necesidad de mantener una sostenibilidad financiera, algo que se vuelve cada vez más difícil a medida que la escala y el costo de la investigación y desarrollo de IA crecen.

Implicaciones éticas

Entre las implicaciones que hay que valorar con respecto a la salida de Mira Murati, las primeras son éticas. OpenAI nació como una organización sin ánimo de lucro con principios muy claros de promover el uso seguro y beneficioso de la IA para la humanidad. Este propósito inicial estuvo centrado en evitar la monopolización de la IA y asegurar que sus avances no fueran utilizados con fines destructivos o abusivos. Sin embargo, con el lanzamiento de GPT-3 y productos comerciales como ChatGPT, la organización adoptó un enfoque híbrido: una estructura «capped-profit» (lucro limitado), lo que permitió la entrada de inversiones, como la de Microsoft, que aportó 10.000 millones de dolares para el desarrollo de la IA de OpenAI.

    Si OpenAI se transformara en una empresa con ánimo de lucro completo, podría haber presiones más intensas para generar beneficios financieros. Esto podría influir en cómo se maneja la ética, ya que el balance entre la misión social y la rentabilidad podría volverse más difuso. Algunos de los posibles impactos éticos serían:

    • Uso de datos: La recopilación y uso de datos podría aumentar para maximizar las oportunidades comerciales. Esto podría crear conflictos en términos de privacidad, transparencia y protección de datos, especialmente si hay más presión por monetizar la base de usuarios.
    • Accesibilidad: Podría reducirse el acceso a la tecnología o aumentar los costos, lo que limitaría su disponibilidad solo a quienes puedan pagar por ella. El enfoque en la rentabilidad puede hacer que se prioricen aplicaciones que generen ingresos, en lugar de aquellas con fines humanitarios o de acceso equitativo.
    • Seguridad: La seguridad en torno al desarrollo de IA, algo que OpenAI siempre ha considerado una prioridad, podría verse comprometida si las decisiones financieras toman el control. Esto incluye aspectos de uso responsable, desarrollo de IA para fines bélicos o decisiones que podrían priorizar el desarrollo rápido a costa de la seguridad.

    Implicaciones financieras

    La estructura financiera actual de OpenAI es insostenible si se considera que queman miles de millones de dólares anualmente, lo cual es lógico dada la magnitud de los modelos que desarrollan y su infraestructura tecnológica. Las inversiones de Microsoft (estimadas en más de 10.000 millones) muestran que, si bien el negocio es prometedor, la sostenibilidad es un reto.

      Convertirse en una empresa con ánimo de lucro permitiría atraer más capital de inversión, algo necesario para mantener el nivel de innovación. Sin embargo, esta transición podría ir acompañada de compromisos que influyan en la misión original de OpenAI. Aquí algunos puntos clave:

      • Más control de los inversores: Con más capital vendría más control de los inversores, que probablemente buscarían retornos rápidos y maximizar el valor de su inversión. Esto podría forzar a la compañía a enfocarse en productos más rentables y menos en los principios éticos fundacionales.
      • Presión competitiva: Con un enfoque en la rentabilidad, OpenAI podría tener que competir de manera más directa con gigantes tecnológicos como Google y Amazon, lo que podría incentivar estrategias de crecimiento agresivo, como la adquisición de datos a gran escala o acuerdos menos transparentes.

      Implicaciones en la captación de datos.

      En cuanto a la captación de datos, un cambio hacia el lucro completo podría generar nuevas dinámicas. Ya hemos visto que muchas empresas tecnológicas recurren a la monetización de datos personales como un modelo de negocio rentable. Si OpenAI tuviera que inclinarse más hacia la generación de ingresos, podríamos ver:

        • Más recopilación de datos de usuarios: Las herramientas de IA, incluidas las conversaciones con ChatGPT, podrían captar más datos de los usuarios, posiblemente para mejorar la personalización o la segmentación publicitaria. Esto podría abrir preguntas sobre el uso ético de estos datos.
        • Vulnerabilidad a la explotación de datos: Con mayores incentivos financieros, podría haber menos incentivos para implementar las protecciones robustas que normalmente serían una prioridad en un entorno sin ánimo de lucro. La presión por obtener beneficios podría hacer que la protección de la privacidad y la ética en el uso de datos pase a un segundo plano.

        Impacto en la innovación y la misión

        Si OpenAI cambia su estructura organizacional, también podríamos ver un cambio en el enfoque de su misión. Podrían priorizar más el desarrollo de productos comercializables, como nuevas versiones de ChatGPT, herramientas de automatización para empresas, o aplicaciones que atraigan a grandes clientes corporativos. Esto podría significar menos enfoque en áreas como la ética de IA, la transparencia, o el trabajo colaborativo para el bien común.

          Así que la salida de Mira Murati y la creciente necesidad financiera de OpenAI parecen indicar que hay cambios estratégicos en marcha. Si la organización adopta un enfoque más comercial, esto podría tener implicaciones profundas tanto a nivel ético como en el manejo de datos, con posibles impactos en la misión original de la compañía. La clave será cómo OpenAI equilibra la búsqueda de sostenibilidad financiera con sus principios fundacionales, y si logra mantener un enfoque responsable en el desarrollo de IA pese a las presiones económicas.

          En todo caso no sabremos los detalles hasta que se cierre la ronda de financiación, mientras tanto, habrá que seguir de cerca cómo evoluciona la situación y cuál será el legado de Murati tras su salida.

          Puedes seguir el debate en linkedin aquí