Un grupo de exempleados de OpenAI ha presentado un escrito legal en apoyo de la demanda de Elon Musk contra la compañía de IA, oponiéndose a su cambio planeado de una estructura sin fines de lucro a una con fines de lucro. Esta acción es parte de una disputa mayor sobre la misión original de OpenAI de asegurar que la IA beneficie a toda la humanidad, una misión que Musk alega que la compañía ha abandonado.
Un grupo de antiguos empleados de OpenAI, representados por el profesor de derecho de Harvard, Lawrence Lessig, presentó un escrito de amicus curiae en apoyo de la demanda de Elon Musk contra OpenAI, oponiéndose a la transición planificada de la empresa de una estructura sin fines de lucro a una con fines de lucro. Esta acción destaca las crecientes preocupaciones sobre la evolución de la misión de OpenAI y su impacto potencial en el desarrollo de la inteligencia artificial general (IAG). El escrito nombra a doce antiguos empleados de OpenAI, incluidos investigadores y líderes de políticas, que ahora expresan su oposición al cambio de la empresa.
Fundamental para el argumento de los ex empleados es la creencia de que el control de la organización sin fines de lucro sobre las operaciones de OpenAI es crucial para cumplir su misión original. El escrito sostiene que eliminar el papel de control de la organización sin fines de lucro violaría fundamentalmente la misión y los compromisos estatutarios de OpenAI. Esta perspectiva subraya la importancia de la estructura sin fines de lucro para garantizar que la investigación en IA beneficie a la humanidad en lugar de servir a intereses financieros estrechos, como se afirma en el escrito.
Varios de los antiguos empleados han expresado previamente preocupaciones públicas sobre las prácticas de OpenAI. Por ejemplo, Gretchen Krueger ha pedido una mayor rendición de cuentas y transparencia, mientras que Daniel Kokotajlo y William Saunders advirtieron sobre una carrera “imprudente” por el dominio de la IA. Carrol Wainwright ha declarado que no se debe “confiar” en OpenAI “cuando promete hacer lo correcto más adelante”. Estas declaraciones demuestran un patrón de escepticismo con respecto al compromiso de OpenAI con sus objetivos declarados.
OpenAI, fundada como una organización sin fines de lucro en 2015, inicialmente se convirtió en un modelo de “beneficios limitados” en 2019 y ahora busca reestructurarse en una corporación de beneficio público (CBP). La empresa sostiene que su brazo sin fines de lucro permanecerá intacto y se le inyectarán recursos para iniciativas benéficas. Sin embargo, el escrito de los ex empleados argumenta que la estructura actual, donde la organización sin fines de lucro controla las subsidiarias, es una “parte crucial” de su estrategia y “crítica” para la misión de la organización.
El escrito enfatiza que la estructura de gobierno única de OpenAI fue una herramienta clave de reclutamiento, asegurando repetidamente al personal que el control sin fines de lucro era “crítico” para ejecutar su misión. Según el escrito, el CEO de OpenAI, Sam Altman, enfatizó en una reunión general en 2020 que la gobernanza y supervisión de la organización sin fines de lucro eran “primordiales” para “garantizar que la seguridad y los beneficios sociales amplios se priorizaran sobre las ganancias financieras a corto plazo”. El escrito relata cómo esta estructura se utilizó para persuadir a los empleados a unirse y permanecer en la empresa, citándola como un factor diferenciador de competidores como Google y Anthropic.
El escrito de los ex empleados advierte que una OpenAI con fines de lucro podría verse incentivada a comprometer el trabajo de seguridad y desarrollar una IA poderosa concentrada entre sus accionistas. Argumentan que una estructura con fines de lucro socavaría la cláusula de “fusión y asistencia” en el estatuto de OpenAI, que se compromete a dejar de competir y ayudar a cualquier proyecto “alineado con los valores y consciente de la seguridad” que logre la IAG antes que OpenAI. Esta cláusula se considera una salvaguarda crucial contra los riesgos potenciales asociados con el desarrollo de la IAG.
Los ex empleados de OpenAI se unen a un creciente coro de oposición a la transición de la empresa. A principios de semana, varias organizaciones, incluidas organizaciones sin fines de lucro y grupos laborales como los Teamsters de California, solicitaron al Fiscal General de California que detuviera la conversión con fines de lucro de OpenAI, alegando que la empresa ha “incumplido su obligación de proteger sus activos caritativos” y está “socavando su misión caritativa”. Encode, una organización sin fines de lucro, citó preocupaciones similares en un escrito de amicus curiae presentado en diciembre.
La respuesta de OpenAI enfatiza que su brazo sin fines de lucro permanecerá y se verá reforzado con recursos para iniciativas benéficas. La empresa planea invertir en sectores como la atención médica, la educación y la ciencia. Sin embargo, hay mucho en juego para OpenAI, ya que debe completar su conversión con fines de lucro para fines de este año o el próximo para evitar renunciar a parte del capital que ha recaudado recientemente. Esta presión para asegurar la financiación puede estar influyendo en las decisiones de la empresa.
Ex empleados de OpenAI, con apoyo legal, cuestionan el cambio de la empresa a un modelo con fines de lucro, argumentando que traicionaría su misión original de beneficiar a toda la humanidad con la IA. Temen que la prioridad en los intereses de los accionistas comprometa la seguridad y socave la estructura de gobierno única de OpenAI. OpenAI asegura que su brazo sin fines de lucro permanecerá y se fortalecerá, pero la batalla legal destaca un debate crucial sobre el futuro del desarrollo de la IA: ¿pueden la innovación y el beneficio coexistir con el compromiso con el bien social?
Leave a Reply