Un nuevo documento de política de Eric Schmidt (exdirector ejecutivo de Google), Alexandr Wang (director ejecutivo de Scale AI) y Dan Hendrycks (director del Center for AI Safety) argumenta en contra de una carrera precipitada al estilo del “Proyecto Manhattan” liderada por Estados Unidos para desarrollar Inteligencia General Artificial (AGI), es decir, sistemas de IA con inteligencia sobrehumana. Los autores sostienen que la búsqueda agresiva de la dominación de la AGI podría provocar una respuesta desestabilizadora por parte de China, lo que podría escalar las tensiones internacionales y la ciberguerra. Esto desafía los recientes llamamientos de líderes estadounidenses a un programa AGI respaldado por el gobierno para competir con China, proponiendo en cambio un enfoque en estrategias defensivas y la disuasión.
Un nuevo documento de política, escrito por Eric Schmidt, Alexandr Wang y Dan Hendrycks, advierte contra una búsqueda rápida y exclusiva de inteligencia artificial “superhumana” (AGI) por parte de Estados Unidos, rechazando específicamente un enfoque de tipo “Proyecto Manhattan”. Los autores argumentan que una estrategia de este tipo, destinada a lograr la dominación en el desarrollo de la AGI, podría provocar una feroz respuesta retaliatoria de China, desestabilizando potencialmente las relaciones internacionales a través de acciones como ciberataques. Esta preocupación se basa en la creencia de que los rivales no aceptarán pasivamente un desequilibrio de poder duradero, y que intentar asegurar un superarma y el control global conlleva el riesgo de escalar las tensiones en lugar de lograr la estabilidad. El documento desafía directamente propuestas recientes, incluida una de una comisión del Congreso de EE. UU., que aboga por un programa AGI a gran escala financiado por el gobierno, modelado según el proyecto de la bomba atómica de la década de 1940, y declaraciones de funcionarios como el Secretario de Energía Chris Wright, quien recientemente declaró que EE. UU. está “al comienzo de un nuevo Proyecto Manhattan” en IA.
El argumento central presentado en “Estrategia de Superinteligencia” se centra en el concepto de una dinámica de “destrucción mutua asegurada” (MAD) aplicada al desarrollo de la AGI. Los autores establecen un paralelismo entre la búsqueda de la dominación de la AGI y la carrera armamentista nuclear de la Guerra Fría, sugiriendo que, al igual que las armas nucleares, es poco probable e indeseable un monopolio sobre sistemas de IA extremadamente potentes. La razón es que el riesgo de un ataque preventivo por parte de un adversario, en este caso China, es demasiado alto para justificar una búsqueda implacable del control exclusivo. Esta perspectiva contrasta marcadamente con el sentimiento predominante entre algunos líderes políticos y de la industria, quienes creen que un programa respaldado por el gobierno es esencial para competir con China en el ámbito de la IA. El propio Schmidt abogó previamente por una competencia agresiva, citando a DeepSeek como un punto de inflexión en la carrera de la IA.
Para abordar el potencial de escalada de tensiones, el documento introduce el concepto de “Mal Funcionamiento Mutuamente Asegurado de la IA” (MAIM). Esta estrategia proactiva propone que los gobiernos deberían estar preparados para desactivar proyectos de IA amenazantes controlados por otras naciones, en lugar de esperar a que sean militarizados. Los autores enfatizan la necesidad de un cambio de enfoque, desde “ganar la carrera hacia la superinteligencia” hasta el desarrollo de métodos que disuadan a otros países de crear IA superinteligente. Esto incluye ampliar las capacidades de ciberataque específicamente dirigidas a desactivar proyectos de IA y limitar el acceso de los adversarios a recursos cruciales como los chips de IA avanzados y los modelos de código abierto. El Pentágono ya reconoce la ventaja militar de la IA, señalando su papel en la aceleración de la “cadena de mando”, lo que destaca aún más la urgencia de desarrollar estrategias defensivas.
Los autores reconocen una dicotomía dentro del mundo de la política de la IA, categorizando a las partes interesadas como “pesimistas” u “ostriches” (optimistas). Los “pesimistas” creen que los resultados catastróficos del desarrollo de la IA son inevitables y abogan por frenar el progreso, mientras que los “ostriches” creen que las naciones deberían acelerar el desarrollo con la esperanza de que los riesgos potenciales se gestionen. El documento “Estrategia de Superinteligencia” propone un “tercer camino”: un enfoque medido para el desarrollo de la AGI que prioriza las estrategias defensivas. Este enfoque busca equilibrar los beneficios potenciales de la IA con los riesgos de una escalada incontrolada, abogando por una postura proactiva y cautelosa en lugar de un abandono total o una aceleración imprudente.
El cambio de perspectiva de Schmidt, un defensor vocal de la competencia agresiva en la IA, es particularmente notable. Sus declaraciones anteriores, como su artículo de opinión destacando la importancia de DeepSeek, demuestran una creencia previa en la necesidad de superar a China. Sin embargo, el documento sugiere una reevaluación de esta estrategia, reconociendo que las decisiones de Estados Unidos en torno a la AGI no existen en el vacío y deben considerar las posibles reacciones de otras potencias mundiales. Los autores reconocen implícitamente que una búsqueda unilateral de la dominación de la AGI podría ser contraproducente, desencadenando potencialmente una peligrosa carrera armamentista y socavando la propia estabilidad que EE. UU. busca asegurar.
A pesar del aparente compromiso de la administración Trump de seguir adelante con el desarrollo de la IA, el documento subraya la importancia de considerar el contexto geopolítico más amplio. Los autores sostienen que un enfoque defensivo, centrado en la disuasión y la desactivación de proyectos amenazantes, puede ser un camino más prudente. Esta estrategia reconoce los riesgos inherentes al desarrollo de la AGI y busca mitigarlos a través de medidas proactivas, en lugar de confiar en la esperanza de que los riesgos potenciales se gestionen a través del mero avance tecnológico. En última instancia, el documento “Estrategia de Superinteligencia” presenta un argumento convincente para un enfoque más cauteloso y estratégico para el desarrollo de la AGI, priorizando la estabilidad internacional sobre la búsqueda de la dominación exclusiva.
Un nuevo documento de política de Eric Schmidt, Alexandr Wang y Dan Hendrycks argumenta en contra de una carrera por desarrollar una IA superinteligente (AGI) al estilo del “Proyecto Manhattan”, temiendo que provoque represalias por parte de China y aumente las tensiones internacionales. En cambio, proponen una estrategia de “Mal Funcionamiento Mutuamente Asegurado de la IA” (MAIM)—disuasión a través de la posible desactivación de proyectos de IA amenazantes y la limitación del acceso a recursos clave—cambiando el enfoque de ganar la carrera a prevenir el desarrollo hostil. Esto contrasta con la política actual de EE. UU. que impulsa un avance agresivo de la IA, y ofrece un “tercer camino” entre detener por completo el progreso y una aceleración descontrolada. A medida que las capacidades de la IA evolucionan rápidamente, un enfoque proactivo y defensivo para la seguridad global de la IA puede ser crucial—quizás el desafío tecnológico y geopolítico más apremiante de nuestro tiempo—requiere un diálogo internacional más amplio sobre el desarrollo responsable de la IA y salvaguardias compartidas.
Leave a Reply