Prohíbe DeepSeek: OpenAI a EE. UU.

OpenAI ha propuesto al gobierno de EE. UU. que se prohíban los modelos desarrollados por el laboratorio de IA chino DeepSeek, y operaciones similares respaldadas por el gobierno chino. DeepSeek, un laboratorio de IA relativamente nuevo y de rápido crecimiento surgido de un fondo de cobertura, ya ha enfrentado acusaciones de OpenAI por usar indebidamente sus datos. Esta nueva propuesta intensifica el conflicto, alegando que DeepSeek está “subvencionado por el Estado” y “controlado por el Estado”, lo que plantea riesgos de seguridad y privacidad debido al posible acceso del gobierno chino a los datos de los usuarios.

OpenAI ha propuesto un cambio de política significativo con respecto a los modelos de IA originarios de China, apuntando específicamente a DeepSeek, un laboratorio de IA en ascenso. El núcleo de esta propuesta, presentada como parte de la iniciativa “Plan de Acción de la IA” de la administración Trump, recomienda que el gobierno de EE. UU. considere prohibir los modelos desarrollados por DeepSeek y entidades similares respaldadas por la República Popular China (RPC). Esto representa una considerable escalada en las preocupaciones en curso de OpenAI sobre DeepSeek, superando las acusaciones de infracción de la propiedad intelectual para abordar riesgos más amplios de seguridad nacional y privacidad.

La justificación principal para esta prohibición propuesta se centra en la percepción de inseguridad de los modelos de DeepSeek. OpenAI argumenta que DeepSeek, operando dentro de China, está sujeto a requisitos legales que lo obligan a cumplir con las demandas de datos de los usuarios. Según OpenAI, esto crea riesgos inherentes, exponiendo potencialmente información sensible al gobierno chino. La propuesta menciona explícitamente el modelo “R1” de DeepSeek, dedicado al “razonamiento”, como ejemplo, sugiriendo que incluso los sistemas avanzados de IA desarrollados por el laboratorio representan una amenaza. El argumento se basa en la suposición de que la ley china prevalece sobre la capacidad de DeepSeek para proteger los datos de los usuarios y la propiedad intelectual, convirtiendo efectivamente los modelos en un conducto para posibles actividades de vigilancia y extracción de datos.

Sin embargo, surge un punto de controversia crucial al considerar los modelos abiertos de DeepSeek. Estos modelos, que están disponibles públicamente, carecen de los mecanismos que permitirían al gobierno chino extraer datos de los usuarios. Las principales empresas de tecnología, incluyendo Microsoft, Perplexity y Amazon, alojan activamente estos modelos abiertos en su infraestructura, lo que complica aún más la noción de que son inherentemente inseguros. Esto sugiere que las preocupaciones de OpenAI podrían ser menos sobre la naturaleza de código abierto de los modelos en sí y más sobre los riesgos potenciales asociados con la API de DeepSeek u otros aspectos propietarios de sus operaciones. La ambigüedad en el lenguaje de OpenAI, refiriéndose a “modelos” sin especificar si se refiere a las API, los modelos abiertos o ambos, contribuye a esta confusión.

Antes de esta propuesta, OpenAI ya había acusado a DeepSeek de “destilar” conocimiento de los modelos de OpenAI, una práctica que viola los términos de servicio de OpenAI. Esta preocupación inicial se centraba en el robo de propiedad intelectual y la obtención de una ventaja competitiva injusta. El rápido ascenso de DeepSeek a la prominencia a principios de este año, junto con sus impresionantes capacidades técnicas, probablemente alimentó el escrutinio inicial de OpenAI. Sin embargo, la propuesta actual marca una escalada significativa, desplazando el enfoque de las preocupaciones sobre la propiedad intelectual a implicaciones más amplias de seguridad nacional. La acusación de que DeepSeek está “subvencionado por el Estado” y “controlado por el Estado” es una acusación seria, que implica un vínculo directo entre el laboratorio y el gobierno chino.

Si bien un vínculo definitivo y disponible públicamente entre el gobierno chino y DeepSeek sigue sin estar claro, eventos recientes han indicado un creciente interés por parte de Beijing. Notablemente, el fundador de DeepSeek, Liang Wenfeng, se reunió con el líder chino Xi Jinping hace varias semanas. Esta reunión, aunque no es una confirmación directa de control gubernamental, señala un nivel de reconocimiento y potencialmente apoyo oficial al desarrollo de DeepSeek. El hecho de que un laboratorio relativamente joven y financiado de forma privada de IA haya recibido tal atención de alto nivel por parte del liderazgo chino sugiere que DeepSeek se alinea con los objetivos estratégicos de Beijing en el campo de la inteligencia artificial.

La recomendación de la propuesta de prohibir los modelos “producidos por la RPC” en países considerados “Nivel 1” según las reglas de exportación de la administración Biden destaca aún más el alcance potencial del cambio de política. Los países “Nivel 1” son aquellos considerados como los que tienen el mayor riesgo de exportar tecnologías sensibles a naciones adversarias. Implementar dicha prohibición restringiría efectivamente el uso de los modelos de DeepSeek, y potencialmente los de otros laboratorios de IA chinos, en mercados globales clave, impactando significativamente su crecimiento e influencia. Esta acción sería una medida proactiva para mitigar los riesgos potenciales de privacidad y seguridad, incluido el riesgo de robo de propiedad intelectual, según el razonamiento de OpenAI.

OpenAI está solicitando que el gobierno de EE. UU. prohíba los modelos de IA de DeepSeek, un laboratorio chino que considera subsidiado por el estado y que representa riesgos de seguridad debido al posible acceso del gobierno chino a datos de usuarios y robo de propiedad intelectual. A pesar de que los modelos abiertos de DeepSeek se alojan en grandes empresas estadounidenses y carecen de mecanismos para extraer datos, las crecientes preocupaciones de OpenAI, junto con el reciente contacto de DeepSeek con líderes chinos, justifican una cuidadosa evaluación del panorama geopolítico en evolución del desarrollo de la IA.

Comments

Leave a Reply

Your email address will not be published. Required fields are marked *