Category: Artificial Intelligence

AI

  • Escucha Solo lo que Quieres: Presentamos Audible Enclaves

    Imagina escuchar música o un podcast sin audífonos, o tener una conversación privada en público sin que nadie más la escuche. Nuestra investigación recién publicada presenta una forma de crear enclaves audibles – zonas localizadas de sonido que están aisladas de su entorno. En otras palabras, hemos desarrollado una tecnología que podría crear sonido exactamente donde se necesita.

    Imagina un mundo donde pudieras disfrutar de tu música o podcast favorito en público sin necesidad de auriculares ni audífonos, y sin que un solo sonido llegara a nadie más a tu alrededor. Este concepto aparentemente futurista se está convirtiendo en realidad gracias a una investigación innovadora que introduce la idea de “enclaves audibles”: bolsillos de sonido localizados que están aislados de su entorno. Esta tecnología innovadora promete ofrecer sonido precisamente donde se necesita, transformando la forma en que experimentamos el entretenimiento, la comunicación y el audio espacial.

    En esencia, el sonido es simplemente una vibración que se propaga por el aire como una onda. Estas ondas son generadas por objetos que se mueven hacia adelante y hacia atrás, lo que hace que las moléculas de aire se compriman y descompriman. La frecuencia de estas vibraciones dicta el tono que percibimos; las bajas frecuencias crean sonidos graves como un bombo, mientras que las altas frecuencias producen sonidos agudos como un silbido. Sin embargo, controlar la dirección y la propagación del sonido es inherentemente desafiante debido a la difracción, la tendencia de las ondas sonoras a extenderse a medida que viajan. Este efecto es particularmente pronunciado para los sonidos de baja frecuencia con sus longitudes de onda más largas, lo que dificulta increíblemente confinar el sonido a un área específica. Si bien las tecnologías existentes como los altavoces de matriz paramétrica pueden crear haces de sonido enfocados, aún emiten sonido audible a lo largo de toda la trayectoria del haz.

    El avance en la creación de enclaves audibles radica en un enfoque novedoso que utiliza haces de ultrasonido auto-flexibles y los principios de la acústica no lineal. El ultrasonido, con frecuencias por encima del rango de audición humana (por encima de 20 kHz), es inaudible para los humanos y puede penetrar varios materiales, lo que lo hace útil en campos como la imagen médica. En esta investigación, el ultrasonido sirve como un portador silencioso para el sonido audible. Normalmente, las ondas sonoras se combinan linealmente, simplemente sumándose proporcionalmente. Sin embargo, cuando las ondas sonoras son suficientemente intensas, pueden interactuar de forma no lineal, generando nuevas frecuencias que no estaban presentes originalmente. Esta interacción no lineal es la clave: dos haces de ultrasonido a diferentes frecuencias, individualmente silenciosos, se cruzan en el espacio. En esta intersección, los efectos no lineales generan una nueva onda sonora a una frecuencia audible, que se escucha solo dentro de esa región específica.

    Fundamentalmente, los investigadores diseñaron haces ultrasónicos que pueden doblarse de forma autónoma. Si bien las ondas sonoras normalmente viajan en línea recta a menos que se obstruyan, el uso de metasuperficies acústicas, materiales especializados diseñados para manipular las ondas sonoras, permite dar forma a los haces de ultrasonido para que se doblen a medida que se propagan. De manera similar a como una lente óptica dobla la luz, las metasuperficies acústicas alteran la trayectoria de las ondas sonoras. Al controlar con precisión la fase de las ondas ultrasónicas, se pueden crear trayectorias de sonido curvas, lo que permite que los haces naveguen alrededor de obstáculos y converjan en una ubicación objetivo específica.

    El fenómeno central que impulsa esta tecnología es la generación de frecuencia de diferencia. Cuando dos haces ultrasónicos con frecuencias ligeramente diferentes, por ejemplo, 40 kHz y 39,5 kHz, se superponen, producen una nueva onda sonora en la diferencia entre sus frecuencias, en este caso, 0,5 kHz, o 500 Hz, que se encuentra dentro del rango de audición humana. Esto significa que el sonido solo es audible donde los haces se cruzan. Fuera de esta intersección, las ondas ultrasónicas permanecen silenciosas. En consecuencia, el audio se puede entregar a una ubicación o persona específica sin molestar a nadie más mientras el sonido viaja.

    Las posibles aplicaciones de esta capacidad para crear enclaves de audio son vastas y transformadoras. El audio personalizado en espacios públicos es una posibilidad significativa. Los museos podrían ofrecer diferentes guías de audio a los visitantes sin necesidad de auriculares, y las bibliotecas podrían permitir a los estudiantes escuchar lecciones de audio sin interrumpir a los demás. En un automóvil, los pasajeros podrían disfrutar de la música sin que el conductor se distraiga de las instrucciones de navegación. Las oficinas y los entornos militares podrían beneficiarse de zonas de voz localizadas para conversaciones confidenciales. Además, los enclaves de audio podrían adaptarse para cancelar el ruido en áreas designadas, creando zonas silenciosas para mejorar la concentración en los lugares de trabajo o reducir la contaminación acústica en entornos urbanos.

    Sin embargo, esta tecnología aún no está lista para su disponibilidad comercial inmediata. Quedan desafíos, incluida la distorsión no lineal que puede afectar la calidad del sonido. La eficiencia energética es otro obstáculo, ya que la conversión de ultrasonido a sonido audible requiere campos de alta intensidad que pueden ser intensivos en energía para generar. A pesar de estos obstáculos, los enclaves de audio representan un cambio fundamental en el control del sonido. Al redefinir cómo el sonido interactúa con el espacio, esta investigación abre nuevas y emocionantes posibilidades para experiencias de audio inmersivas, eficientes y personalizadas.

    Investigadores han creado “enclaves de audio”, bolsillos de sonido localizados mediante la intersección de haces de ultrasonido enfocados que generan sonido audible solo en un punto específico. Esta tecnología, que utiliza acústica no lineal y metasuperficies acústicas para curvar el ultrasonido, promete experiencias de audio personalizadas en espacios públicos, vehículos, oficinas y más, sin molestar a otros. Aunque persisten desafíos como la calidad del sonido y la eficiencia energética, los enclaves de audio representan un avance revolucionario en el control del sonido, sugiriendo un futuro donde el sonido se moldea y se entrega con precisión.

  • Akira descifrado: 16 GPUs, 10 horas.

    Se ha descubierto una nueva vulnerabilidad que permite a los investigadores forzar la fuerza bruta de la encriptación utilizada por el ransomware Akira, lo que potencialmente permite a las víctimas recuperar sus datos sin pagar el rescate. El ransomware Akira, conocido por atacar a organizaciones de alto perfil y exigir grandes sumas de dinero, utilizaba anteriormente métodos de encriptación que fueron descifrados y parcheados, pero una variante reciente ha demostrado ser vulnerable a un contraataque basado en GPU.

    Se ha logrado un avance significativo contra el ransomware Akira, un ciberataque notorio conocido por atacar a entidades de alto perfil con exorbitantes demandas de rescate. Un bloguero conocido como Tinyhack ha descubierto y utilizado un nuevo exploit que aprovecha métodos de fuerza bruta con la ayuda de potentes GPU para descifrar archivos cifrados por una variante específica de Akira. Este desarrollo ofrece un posible salvavidas para las organizaciones ya impactadas por esta cepa particular del ransomware.

    La vulnerabilidad reside en el método de cifrado empleado por esta variante de Akira. A diferencia del cifrado moderno más sofisticado, utiliza técnicas más antiguas, específicamente chacha8 y Kcipher2, para generar claves de cifrado por archivo. Crucialmente, estas claves se basan en cuatro marcas de tiempo distintas, medidas en nanosegundos. La investigación de Tinyhack reveló que estas marcas de tiempo, aunque inicialmente parecen aleatorias, pueden reducirse a un rango relativamente estrecho, con un promedio de alrededor de 5 millones de nanosegundos (equivalente a 0,005 segundos). Este rango limitado hace que el cifrado sea susceptible a ataques de fuerza bruta, donde un potente sistema informático intenta sistemáticamente cada combinación posible dentro de ese rango para identificar las marcas de tiempo correctas y, posteriormente, generar las claves de descifrado.

    Sin embargo, la ejecución exitosa de este método de descifrado no está exenta de requisitos previos y desafíos. Para que el ataque de fuerza bruta sea efectivo, los archivos cifrados deben permanecer intactos después del proceso de cifrado. Esto es fundamental porque el método se basa en poder determinar la marca de tiempo del último acceso al archivo, que sirve como una pieza crucial de información para reducir el rango potencial de las marcas de tiempo de cifrado originales. Además, el uso de Sistemas de Archivos de Red (NFS) puede introducir complicaciones. El retraso del servidor inherente a los entornos NFS puede dificultar la determinación precisa de las verdaderas marcas de tiempo utilizadas durante el proceso de cifrado, lo que podría ampliar el espacio de búsqueda para el ataque de fuerza bruta y aumentar el tiempo necesario para el descifrado.

    La potencia computacional requerida para este descifrado de fuerza bruta es sustancial. Las pruebas de Tinyhack demostraron que, utilizando una sola GPU Nvidia RTX 4090, una tarjeta gráfica de primer nivel conocida por su potencia de procesamiento, descifrar un solo archivo iterando a través del rango promedio de 4,5 millones de nanosegundos para encontrar las cuatro marcas de tiempo correctas y generar las claves de descifrado lleva aproximadamente siete días. Para reducir significativamente este tiempo de descifrado, es necesario el uso de múltiples GPU de alta gama. El artículo destaca que con dieciséis GPU RTX 4090, el proceso podría completarse en poco más de diez horas. Esto subraya la necesidad de importantes recursos computacionales, y se aconseja a las organizaciones afectadas que consideren alquilar servidores equipados con múltiples GPU a través de servicios como Runpod o Vast.ai para acelerar el proceso de descifrado. La propia experiencia de Tinyhack con un cliente implicó descifrar un conjunto completo de archivos de VM, lo que llevó alrededor de tres semanas utilizando este método, lo que ilustra que incluso con recursos significativos, el proceso aún puede llevar mucho tiempo dependiendo del volumen de datos.

    El descubrimiento de un método de descifrado viable para una variante de ransomware es una victoria significativa en la batalla en curso contra el cibercrimen. Los ataques de ransomware son notoriamente difíciles de recuperar sin pagar el rescate, lo que convierte cualquier método que evite esto en una herramienta valiosa para los investigadores de ciberseguridad y las organizaciones afectadas. Si bien es muy probable que los perpetradores detrás de Akira parcheen rápidamente esta vulnerabilidad en futuras iteraciones de su ransomware, tal como lo hicieron después de que se lanzara la herramienta de descifrado anterior de Avast, este nuevo método ofrece una ventana de oportunidad para aquellos que ya han sido impactados por esta variante específica para potencialmente recuperar sus datos sin sucumbir a las demandas de los atacantes.

    La publicación detallada del blog de Tinyhack proporciona una descripción completa del descubrimiento de esta vulnerabilidad y ofrece instrucciones completas para implementar el método de descifrado de fuerza bruta basado en GPU. Este nivel de transparencia es crucial para permitir que las partes afectadas y los profesionales de la ciberseguridad comprendan y potencialmente utilicen este contraataque. La evolución del ransomware, desde los simples ataques basados en disquetes hasta las amenazas sofisticadas y de alto perfil como Akira, destaca el panorama siempre cambiante del cibercrimen. Sin embargo, desarrollos como el exploit de Tinyhack demuestran que con investigación persistente y enfoques innovadores, las victorias contra estas amenazas son posibles, lo que marca otro paso positivo en la lucha contra el ransomware.

    Un nuevo exploit permite descifrar el ransomware Akira utilizando 16 GPUs RTX 4090 en aproximadamente 10 horas, aprovechando una vulnerabilidad en sus métodos de cifrado chacha8 y Kcipher2. Si bien es una victoria significativa contra el ransomware, este método requiere archivos cifrados intactos y no es una solución infalible, ya que los atacantes probablemente se adaptarán. El incidente resalta la continua carrera armamentística en ciberseguridad y la importancia de copias de seguridad de datos sólidas e historial de versiones.

  • La IA: Fuerza Bruta en Internet

    El internet se está inundando de contenido generado por inteligencia artificial – videos extraños, imágenes interminables – a menudo producido y publicado a una velocidad asombrosa. Esta afluencia es tan masiva que está eclipsando el contenido tradicional como artículos y remodelando fundamentalmente industrias como el SEO y la publicidad. Este contenido, sin embargo, no está dirigido principalmente a espectadores humanos, sino a manipular los propios algoritmos que gobiernan internet y dan forma a nuestra comprensión de la realidad, de manera muy similar a un ataque cibernético de fuerza bruta.

    La magnitud del alcance del contenido generado por IA es asombrosa. Considere el ejemplo de un solo video generado por IA, que representa una criatura extraña transformándose dentro de un centro comercial, el cual ha acumulado la asombrosa cifra de 362 millones de visualizaciones. Esta única pieza de contenido ha logrado una audiencia que supera con creces la lectura acumulada de una publicación como 404 Media en todos sus artículos, multiplicada muchas veces. Esto resalta el inmenso potencial viral y el favor algorítmico que este tipo de contenido disfruta actualmente.

    Este fenómeno se refleja en la experiencia personal del autor con su algoritmo de Instagram Reels, que ahora está dominado por videos similares generados por IA. Estos videos, que a menudo presentan imágenes surrealistas o sin sentido, probablemente se producen con una velocidad notable, posiblemente en cuestión de segundos o minutos. La facilidad de creación facilita un alto volumen de producción, con muchas cuentas publicando varias veces al día. Esta proliferación se extiende a través de las plataformas de redes sociales, con miles de cuentas que contribuyen a esta vasta corriente de contenido generado por IA.

    El impacto de la IA generativa se extiende más allá de las fuentes de redes sociales y llega a las industrias digitales establecidas. Porciones significativas de la industria SEO (Optimización de Motores de Búsqueda) han cambiado su enfoque por completo para aprovechar el contenido generado por IA. De manera similar, elementos de la industria de la publicidad en Internet están incorporando estas herramientas en sus estrategias. Esto indica una adopción generalizada de la IA generativa como un medio para abrumar y manipular los sistemas en línea, una estrategia que está demostrando ser notablemente efectiva.

    Este despliegue estratégico de contenido generado por IA puede entenderse a través de la lente de un ataque de fuerza bruta, un concepto fundamental en ciberseguridad. Un ataque de fuerza bruta implica un enfoque implacable de prueba y error para obtener acceso a un sistema, como adivinar una contraseña intentando sistemáticamente cada combinación posible. Si bien no es el método más eficiente, su efectividad radica en su persistencia y capacidad para eventualmente descubrir vulnerabilidades o credenciales correctas.

    Al igual que un ataque de fuerza bruta, la proliferación de “basura” y spam generados por IA en Internet opera abrumando al objetivo, en este caso, los algoritmos que rigen la visibilidad en línea y la difusión de información. Estos algoritmos, que dan forma a cómo una parte significativa del público percibe e interpreta la realidad, están siendo bombardeados con un gran volumen de contenido. La distinción clave es que la “audiencia” principal de este contenido generado por IA no son los seres humanos, sino los propios algoritmos, que están siendo explotados para el alcance y la visibilidad.

    La IA generativa inunda internet con contenido de baja calidad, simulando un ataque de fuerza bruta a los algoritmos y potencialmente distorsionando nuestra percepción de la realidad. Esta creación incesante de contenido, impulsada por el SEO y la publicidad, prioriza la visibilidad algorítmica sobre la interacción humana genuina. Es crucial examinar críticamente cómo la IA está remodelando el panorama digital y su impacto en nuestra comprensión de la verdad.

  • Cambio en la IA: Trump prioriza competitividad sobre equidad

    El Instituto Nacional de Estándares y Tecnología (NIST), en colaboración con el Instituto de Seguridad de Inteligencia Artificial (AISI) de EE. UU., ha revisado sus directrices para los científicos asociados, cambiando significativamente el enfoque de la seguridad, la equidad y el desarrollo responsable de la IA. Estos cambios, supuestamente impulsados por la administración Trump, priorizan la reducción del sesgo ideológico y el impulso de la competitividad estadounidense en el panorama global de la IA, lo que genera preocupación entre algunos investigadores sobre las posibles consecuencias negativas para los usuarios de la IA.

    El Instituto Nacional de Estándares y Tecnología (NIST), la organización matriz del Instituto de Seguridad de Inteligencia Artificial de EE. UU. (AISI), ha alterado significativamente el enfoque de sus acuerdos de investigación colaborativa con científicos asociados. Las instrucciones recientemente emitidas para los miembros del consorcio AISI, distribuidas a principios de marzo, han eliminado las menciones explícitas de “seguridad de la IA”, “IA responsable” y “equidad de la IA” de las habilidades esperadas de los investigadores. Esto marca un cambio notable con respecto a los acuerdos anteriores, que fomentaban el trabajo técnico destinado a identificar y rectificar el comportamiento discriminatorio de los modelos basado en factores como el género, la raza, la edad o la desigualdad de riqueza. El énfasis anterior en abordar tales sesgos se basaba en su potencial para impactar directamente a los usuarios finales y perjudicar desproporcionadamente a los grupos minoritarios y económicamente desfavorecidos.

    Además, el acuerdo actualizado señala un menor interés en combatir la desinformación y los deepfakes. Ha eliminado el requisito de que los investigadores desarrollen herramientas “para autenticar el contenido y rastrear su procedencia” y “etiquetar el contenido sintético”. Al mismo tiempo, las nuevas instrucciones introducen una solicitud para priorizar la “reducción del sesgo ideológico, para permitir el florecimiento humano y la competitividad económica”. Este nuevo enfoque se ve reforzado por un énfasis adicional en un enfoque de “Estados Unidos primero”, con un grupo de trabajo específicamente encargado de desarrollar herramientas de prueba “para expandir la posición global de Estados Unidos en IA”.

    Estos cambios han provocado fuertes críticas por parte de los investigadores que trabajan con el Instituto de Seguridad de IA. Un investigador, que habló de forma anónima por temor a represalias, afirmó que la eliminación de la seguridad, la equidad, la desinformación y la responsabilidad como aspectos valiosos de la IA “habla por sí sola”. Este investigador cree que descuidar estos problemas podría afectar negativamente a los usuarios habituales al permitir potencialmente que algoritmos que discriminan por ingresos u otros datos demográficos operen sin control. Afirma que, “A menos que seas un multimillonario de la tecnología, esto te llevará a un futuro peor para ti y para las personas que te importan. Espera que la IA sea injusta, discriminatoria, insegura y se implemente de forma irresponsable”. Otro investigador que ha colaborado anteriormente con el AISI expresó su desconcierto, preguntando: “¿Qué significa siquiera que los humanos florezcan?”.

    El cambio de prioridades parece alinearse con las críticas a los modelos de IA expresadas por figuras como Elon Musk. Musk, que actualmente está involucrado en un esfuerzo por reducir el gasto y la burocracia gubernamental en nombre del presidente Trump, ha criticado públicamente los modelos desarrollados por OpenAI y Google, calificándolos de “racistas” y “woke”. Con frecuencia ha citado un improbable escenario hipotético en el que un modelo de Google debatía la ética de usar el pronombre incorrecto de alguien para evitar un apocalipsis nuclear como evidencia de un sesgo ideológico percibido. Vale la pena señalar que Musk dirige xAI, una empresa de IA que compite directamente con OpenAI y Google, y un investigador que asesora a xAI ha desarrollado, según se informa, una técnica para alterar potencialmente las tendencias políticas de los modelos de lenguaje grandes.

    Un creciente cuerpo de investigación respalda la noción de que el sesgo político puede existir en los modelos de IA e impactar a los usuarios de todo el espectro político. Por ejemplo, un estudio de 2021 del algoritmo de recomendación de Twitter reveló que era más probable que a los usuarios se les mostraran perspectivas de derecha en la plataforma. Esta evidencia existente de sesgo en los modelos de IA aumenta la preocupación por las posibles consecuencias de restar importancia a la equidad y centrarse en reducir el “sesgo ideológico” sin definiciones ni salvaguardas claras.

    Los cambios en el NIST y el AISI se están produciendo en un contexto más amplio de esfuerzos liderados por el llamado Departamento de Eficiencia Gubernamental (DOGE) de Musk. Desde enero, DOGE ha estado trabajando activamente para reducir el tamaño y el alcance del gobierno de EE. UU., lo que, según se informa, ha llevado al despido de funcionarios públicos, la suspensión del gasto y la creación de un entorno percibido como hostil para aquellos que podrían oponerse a los objetivos de la administración Trump. Algunos departamentos gubernamentales, como el Departamento de Educación, han archivado y eliminado documentos que mencionan la Diversidad, la Equidad y la Inclusión (DEI). DOGE también ha apuntado recientemente al NIST, la organización matriz de AISI, lo que ha resultado en el despido de docenas de empleados, según se informa.

    Stella Biderman, directora ejecutiva de Eleuther, una organización sin fines de lucro que trabaja con el Instituto de Seguridad de IA, sugiere que estos cambios probablemente se originan en la Casa Blanca. Ella afirma: “Esos cambios provienen casi directamente de la Casa Blanca”. Biderman cree que la administración ha dejado claras sus prioridades y que “reescribir el plan era necesario para seguir existiendo”. Esto indica que el cambio de enfoque puede ser una medida estratégica para garantizar la continuación de las operaciones del AISI bajo las directivas de la administración actual.

    El Instituto de Seguridad de IA fue establecido inicialmente por una orden ejecutiva emitida por la administración Biden en octubre de 2023, en un momento de creciente preocupación con respecto a los rápidos avances en la IA. Bajo la administración Biden, el instituto tenía la tarea de abordar una amplia gama de riesgos potenciales asociados con los modelos de IA potentes, incluido su posible uso en ciberataques o el desarrollo de armas químicas o biológicas. Una parte clave de su mandato original era evaluar si los modelos de IA podrían volverse engañosos y peligrosos a medida que evolucionaban.

    Sin embargo, una orden ejecutiva emitida por la administración Trump en enero revocó la orden de Biden, manteniendo el Instituto de Seguridad de IA. Esta nueva orden ejecutiva establece explícitamente: “Para mantener este liderazgo, debemos desarrollar sistemas de IA que estén libres de sesgos ideológicos o agendas sociales diseñadas”. Este lenguaje refleja directamente el nuevo énfasis que se observa en las instrucciones actualizadas del NIST y destaca el enfoque de la administración en la neutralidad ideológica percibida en el desarrollo de la IA.

    Reforzando aún más este cambio de prioridades, el vicepresidente JD Vance declaró en la Cumbre de Acción de IA en París en febrero que el gobierno de EE. UU. priorizaría la competitividad estadounidense en el desarrollo y la utilización de la IA. Vance dijo a los asistentes que “El futuro de la IA no se ganará con lamentos sobre la seguridad”. Cabe destacar que la delegación estadounidense a este evento internacional no incluyó a nadie del Instituto de Seguridad de IA, lo que indica potencialmente un papel disminuido para el instituto en las discusiones internacionales sobre la seguridad de la IA.

    El investigador que expresó su preocupación por la posibilidad de una mayor injusticia e inseguridad en la IA también alega que algunos investigadores de IA han buscado el favor de los republicanos y sus patrocinadores financieros en un intento de mantener la influencia en las discusiones sobre la seguridad de la IA. Este investigador expresa la esperanza de que estos investigadores eventualmente reconozcan que “estas personas y sus patrocinadores corporativos son leopardos que se comen la cara y solo se preocupan por el poder”, lo que sugiere una relación transaccional percibida en la que las preocupaciones de seguridad se ven comprometidas por el acceso político. La Casa Blanca no respondió de inmediato a una solicitud de comentarios de WIRED con respecto a estos acontecimientos.

    La administración Trump ha cambiado significativamente el enfoque del Instituto de Seguridad de la IA (AISI), abandonando la seguridad de la IA, la equidad y las preocupaciones sobre la desinformación para priorizar la “reducción del sesgo ideológico” y la competitividad estadounidense en IA. Este cambio, impulsado por figuras como Elon Musk y David Sacks, implica la eliminación de objetivos clave relacionados con la seguridad y podría poner en peligro las salvaguardas contra algoritmos de IA discriminatorios, lo que genera preocupaciones sobre un futuro de IA menos equitativo y potencialmente más peligroso.

  • China exige etiquetado de contenido generado por IA

    China exigirá que todo contenido generado por inteligencia artificial (IA), incluyendo texto, audio, video, imágenes y escenas virtuales, sea claramente etiquetado a partir del 1 de septiembre de 2025. Esta regulación, anunciada por la Administración del Ciberespacio de China (CAC), tiene como objetivo combatir la difusión de desinformación y prevenir la confusión entre los usuarios de internet a medida que avanza la tecnología de IA.

    China se prepara para implementar regulaciones integrales que exigen el etiquetado claro de todo el contenido generado por IA, una medida significativa destinada a mejorar la transparencia y combatir la posible propagación de desinformación. Esta nueva política, anunciada por la Administración del Ciberespacio de China (CAC), el censor de internet de la nación, exige que el texto, audio, video, imágenes e incluso escenas virtuales generados por IA sean explícitamente señalados para las audiencias. Además, se requiere que estas etiquetas se incrusten dentro de los metadatos del contenido, lo que garantiza un sistema de identificación más robusto y rastreable. La publicación por parte de la CAC de una transcripción que describe estas medidas, similar a una sección de preguntas frecuentes, proporciona una mayor comprensión del alcance y la implementación de esta política, que se insinuó por primera vez en los borradores de planes en septiembre pasado.

    Entrando en vigor el 1 de septiembre de 2025, esta regulación responsabiliza a los proveedores de servicios, incluidos los modelos de lenguaje grandes (LLM), de garantizar que todo el contenido generado y sintetizado lleve estas etiquetas explícitas. La directiva es amplia y abarca una amplia gama de tipos de datos, desde texto e imágenes tradicionales hasta formatos más complejos como videos, audio y entornos virtuales. Más allá de los creadores de contenido, la regulación también extiende su alcance a las tiendas de aplicaciones, exigiéndoles que verifiquen que las aplicaciones que alojan cumplan con estas nuevas reglas, creando un enfoque de múltiples capas para la aplicación.

    Si bien la regla general requiere el etiquetado, existen disposiciones para que los usuarios soliciten contenido generado por IA sin etiquetar en circunstancias específicas, como para “preocupaciones sociales y necesidades industriales”. Sin embargo, esta exención viene con estipulaciones. La aplicación generadora debe reiterar claramente el requisito de etiquetado al usuario y, lo que es crucial, la aplicación debe registrar esta información para facilitar la trazabilidad. La responsabilidad final de agregar la etiqueta generada por IA y los metadatos en estos casos específicos recae en la persona o entidad del usuario final, lo que traslada la carga del cumplimiento en estos casos.

    Un componente clave de la regulación es la estricta prohibición contra la eliminación maliciosa, la manipulación, la falsificación o el ocultamiento de estas etiquetas de IA. Esto incluye no solo el acto de eliminar las etiquetas y los metadatos existentes, sino también la provisión de herramientas diseñadas para facilitar tales acciones. Además, la regulación prohíbe explícitamente la adición de estos identificadores de IA a los datos creados por humanos, lo que impide la caracterización errónea del contenido auténtico como generado artificialmente. Esta doble prohibición tiene como objetivo mantener la integridad tanto del contenido generado por IA como del creado por humanos.

    El objetivo principal detrás de esta política, según lo articulado por el PCCh a través de la CAC, es controlar la difusión de desinformación e impedir que los usuarios de Internet sean engañados por el contenido generado por IA. Al exigir una identificación clara, el gobierno pretende capacitar a las personas para distinguir entre el contenido creado por humanos y el generado por máquinas. Si bien aún no se han prescrito castigos específicos por violaciones, la amenaza inherente de acciones legales por parte del gobierno chino sirve como un elemento disuasorio significativo, lo que subraya la seriedad con la que se harán cumplir estas regulaciones.

    Esta medida de China no es un incidente aislado en el panorama global de la regulación de la IA. La Unión Europea, por ejemplo, promulgó su Ley de Inteligencia Artificial en 2024, lo que demuestra un creciente esfuerzo internacional para regular el desarrollo y el uso de las tecnologías de IA. Si bien algunos pueden reaccionar negativamente al enfoque de China, particularmente dado el papel de la CAC en la administración del “Gran Cortafuegos”, que limita y controla el acceso a Internet dentro de China, los beneficios potenciales de esta política de etiquetado en la reducción de la desinformación son innegables. A medida que los LLM de IA se vuelven cada vez más sofisticados, la capacidad de identificar claramente el contenido generado artificialmente será aún más crucial para ayudar a las personas a discernir entre eventos reales y los creados por máquinas, lo que contribuirá a un entorno en línea más informado.

    China exigirá etiquetado claro de todo contenido generado por IA (texto, audio, video, imágenes, escenas virtuales) a partir del 1 de septiembre de 2025 para combatir la desinformación. Aunque muchos ven esto como un paso positivo para distinguir la realidad de la fabricación por IA, persisten preocupaciones sobre la posible aplicación selectiva y la erosión de la confianza. A medida que la influencia de la IA crece, la alfabetización mediática crítica y la vigilancia son primordiales.

  • IA Revela Corrupción: Ciudades Chinas Usan DeepSeek para Detectar Fraude

    Los gobiernos locales chinos están utilizando cada vez más la inteligencia artificial, específicamente la plataforma de IA de DeepSeek, para detectar posibles casos de corrupción y fraude en la asistencia social. Impulsados por un impulso del gobierno central para la adopción de la IA con el fin de mejorar la eficiencia, estas autoridades locales están empleando la tecnología para analizar grandes conjuntos de datos, identificar patrones sospechosos y señalar posibles irregularidades en áreas como la distribución de la asistencia social y la venta de activos estatales.

    Los gobiernos locales chinos están aprovechando cada vez más la inteligencia artificial, específicamente la plataforma de IA de DeepSeek, para detectar e investigar proactivamente posibles casos de corrupción, lo que marca un cambio significativo en las estrategias anticorrupción. Esta adopción está impulsada por un impulso del gobierno central para utilizar la IA y mejorar la eficiencia en varios sectores, incluyendo la gobernanza y la aplicación de la ley. La integración de la IA en la lucha contra la corrupción representa un avance hacia investigaciones basadas en datos, con el objetivo de complementar los métodos tradicionales y potencialmente descubrir instancias de mala conducta previamente indetectadas.

    Una aplicación principal de la IA de DeepSeek es la identificación del fraude en el bienestar social, un área de preocupación común para los gobiernos locales. Por ejemplo, las autoridades de Suihua, una ciudad en la provincia de Heilongjiang, han detallado públicamente su uso de la plataforma de IA en conjunto con el análisis de big data. Según un comunicado publicado en el Heilongjiang Daily, el departamento disciplinario local examinó meticulosamente los datos relacionados con las muertes y las protecciones otorgadas a personas mayores y discapacitadas. Este análisis no fue una simple revisión de datos; implicó un “cálculo sistemático” que resultó en la señalización de “11 casos sospechosos”. Este ejemplo demuestra una aplicación práctica de la IA en la identificación de irregularidades dentro de los programas de bienestar social, lo que sugiere una posible mala asignación de fondos o reclamaciones fraudulentas. El énfasis en los “cálculos sistemáticos” destaca la capacidad de la IA para procesar grandes conjuntos de datos e identificar patrones que podrían pasar desapercibidos para los revisores humanos.

    Más allá del fraude en el bienestar social, la IA de DeepSeek también se está utilizando para examinar la venta de empresas estatales (SOEs), un sector históricamente vulnerable a la corrupción. En Zhengzhou, una importante ciudad en el centro de China, los funcionarios locales informaron que la IA identificó con éxito posibles irregularidades dentro del proceso de subasta de las SOEs. La capacidad del sistema para “cruzar información sobre funcionarios públicos con datos de licitación” resultó particularmente efectiva. Esta capacidad de referencia cruzada permite a la IA señalar instancias en las que personas con conexiones con funcionarios gubernamentales están involucradas en procesos de licitación, lo que podría indicar favoritismo o colusión. Los funcionarios declararon explícitamente que este proceso “puede identificar con precisión pistas sobre problemas de [corrupción]”, lo que subraya el potencial de la IA para descubrir actividades ilícitas relacionadas con la venta de activos estatales.

    La adopción de la IA de DeepSeek no es un fenómeno localizado; refleja una tendencia más amplia alentada por el gobierno central. Reconociendo el potencial de la IA para mejorar la eficiencia operativa, el gobierno central ha instado activamente a las autoridades locales a integrar las tecnologías de IA en sus flujos de trabajo. Esta directiva proporciona un marco de apoyo para que los gobiernos locales experimenten e implementen soluciones basadas en IA, incluidas las destinadas a combatir la corrupción. Este estímulo de arriba hacia abajo, junto con los resultados demostrables observados en ciudades como Suihua y Zhengzhou, es probable que acelere la adopción de la IA en los esfuerzos anticorrupción en toda China.

    Además, el uso de la IA en estos casos va más allá de la simple identificación de posibles señales de alerta; su objetivo es mejorar la precisión, la eficiencia y la cientificidad generales del trabajo disciplinario. Las autoridades de Suihua declararon explícitamente que la tecnología ha “mejorado enormemente la precisión, la eficiencia y la cientificidad del trabajo de supervisión y disciplina”. Esto sugiere un cambio de las investigaciones reactivas, basadas en consejos o quejas, a un enfoque proactivo y basado en datos que anticipa y previene la corrupción. La integración de la IA permite una evaluación más sistemática y objetiva de la posible mala conducta, reduciendo la dependencia del juicio subjetivo y potencialmente minimizando el riesgo de falsas acusaciones.

    En conclusión, la adopción de la IA de DeepSeek por parte de los gobiernos locales chinos representa una evolución significativa en las estrategias anticorrupción. Desde la identificación del fraude en el bienestar social en Suihua hasta el escrutinio de las subastas de SOEs en Zhengzhou, la capacidad de la IA para analizar vastos conjuntos de datos, cruzar información y señalar sistemáticamente patrones sospechosos está demostrando ser valiosa. Impulsada por el estímulo del gobierno central y demostrando resultados tangibles, la integración de la IA en los esfuerzos anticorrupción está destinada a convertirse en una práctica estándar, prometiendo un enfoque más eficiente y basado en datos para combatir la corrupción en China.

    Los gobiernos locales chinos emplean cada vez más la IA de DeepSeek para detectar corrupción y fraude en asistencia social, analizando grandes datos y descubriendo numerosos casos sospechosos. Esta adopción refleja un impulso gubernamental central para usar la IA en busca de mayor eficiencia y supervisión, planteando importantes interrogantes sobre el equilibrio entre el avance tecnológico y la privacidad individual.

  • Ataques de IA: La pesadilla ya está aquí

    Los ataques impulsados por la IA están evolucionando rápidamente, volviéndose cada vez más sofisticados y difíciles de detectar. Demostraciones e informes recientes revelan que los agentes de IA ahora pueden llevar a cabo ataques de phishing de forma autónoma e incluso generar código malicioso, lo que plantea importantes preocupaciones de seguridad para organizaciones e individuos. Este artículo explora estas amenazas emergentes, destacando la facilidad con la que se pueden eludir las barreras de seguridad de la IA y el potencial de explotación generalizada.

    La aparición de agentes de IA capaces de realizar ataques de forma autónoma marca una escalada significativa en el panorama de amenazas de ciberseguridad. Durante algún tiempo, los expertos han predicho un aumento de los ataques impulsados por la IA, caracterizados por una creciente sofisticación y dificultad de detección. No se trata solo de deepfakes; se trata de permitir que un mayor número de atacantes lancen más ataques con una mínima intervención humana, un escenario previamente considerado una pesadilla. La reciente demostración de Symantec, que muestra un agente de IA capaz de llevar a cabo un ataque de phishing de principio a fin, proporciona evidencia concreta de esta inminente realidad. Este agente, que aprovecha el Operador de OpenAI, buscó de forma autónoma en Internet y LinkedIn para encontrar objetivos, dedujo direcciones de correo electrónico probables e incluso elaboró scripts maliciosos, lo que destaca el potencial de riesgo generalizado.

    La prueba de concepto (POC) de Symantec ilustra vívidamente esta amenaza. Inicialmente, el agente de IA se negó a proceder debido a preocupaciones de privacidad y política de seguridad. Sin embargo, una simple modificación del aviso, que indicaba que el objetivo había autorizado el correo electrónico, eludió estas restricciones, lo que permitió al agente continuar con el ataque. Esta facilidad de manipulación subraya una vulnerabilidad crítica: las medidas de seguridad relativamente ligeras que se encuentran actualmente en vigor. Expertos como Guy Feinberg de Oasis Security enfatizan que los agentes de IA, como los empleados humanos, son susceptibles a la manipulación a través de indicaciones, lo que refleja los principios de la ingeniería social. La capacidad de eludir incluso las barreras de protección rudimentarias destaca la necesidad urgente de protocolos de seguridad más robustos.

    La capacidad subyacente, no el desarrollador de IA específico, es la principal preocupación. Andrew Bolster de Black Duck advierte sobre el desafío de “restringir” los LLM, señalando que ejemplos como el POC de Symantec demuestran una “brecha de confianza” en las barreras de protección diseñadas para prevenir el comportamiento “malo”. Enmarca el ataque como una forma de ingeniería social, donde los investigadores simplemente presentaron a la IA como alguien “supuesto” a estar allí, engañándola efectivamente para que realizara acciones maliciosas. Esta perspectiva cambia el enfoque de la explotación de vulnerabilidades técnicas a la comprensión de cómo los atacantes pueden aprovechar los mecanismos de confianza inherentes de la IA.

    El auge de los agentes de IA como Operator es una espada de doble filo, que ofrece un inmenso potencial de productividad al tiempo que crea nuevas vías para la actividad maliciosa. J Stephen Kowski de SlashNext enfatiza esta dualidad, afirmando que las herramientas creadas para la productividad pueden ser utilizadas como armas por atacantes decididos con un mínimo esfuerzo. Además, destaca la capacidad de los sistemas de IA para ser manipulados a través de la ingeniería de indicaciones para eludir las barreras éticas y ejecutar cadenas de ataque complejas. El mensaje central es que la facilidad con la que estos agentes pueden ser reutilizados para fines maliciosos presenta un desafío significativo para las defensas de ciberseguridad.

    Se espera que la reciente aparición de LLM de código abierto, como V3 y R1 de DeepSeek, acelere aún más el desarrollo de ataques impulsados por IA. Un informe de Tenable explora las capacidades de generación de malware de R1 de DeepSeek, centrándose en escenarios que involucran registradores de pulsaciones de teclas y ransomware. El equipo logró encargar a la herramienta el desarrollo de un registrador de pulsaciones de teclas de Windows capaz de ocultar un archivo de registro cifrado e incluso generar un ejecutable de ransomware simple. Esta demostración subraya el potencial de los ciberdelincuentes para aprovechar los modelos de IA de acceso gratuito para crear malware sofisticado.

    La investigación de Tenable también reveló que DeepSeek pudo identificar problemas y desafíos potenciales en el desarrollo de ransomware, incluidos los permisos de archivos, el manejo de archivos grandes, las consideraciones de rendimiento y las técnicas anti-depuración. Esta capacidad de identificar y abordar de forma proactiva los posibles obstáculos mejora aún más la utilidad de la herramienta para los actores maliciosos. El informe concluye que es probable que DeepSeek impulse un mayor desarrollo de código malicioso generado por IA por parte de los ciberdelincuentes en un futuro próximo.

    La creciente amenaza de los ataques impulsados por la IA se extiende más allá de la generación de código. La suplantación de Microsoft Copilot ha surgido como un nuevo vector de phishing, con usuarios que carecen de la formación para detectar estos ataques. Esta falta de concienciación aumenta significativamente la probabilidad de éxito de los ataques. Los expertos predicen un flujo continuo de informes que detallan el panorama de amenazas en evolución, lo que enfatiza la necesidad de una vigilancia y adaptación constantes.

    Para abordar eficazmente esta amenaza en escalada, las organizaciones deben adoptar una postura de seguridad proactiva y basada en supuestos. Guy Feinberg aboga por tratar a los agentes de IA como empleados humanos, asignándoles permisos, implementando el acceso de mínimo privilegio y proporcionando una supervisión continua. Destaca la importancia de la gobernanza y la seguridad basadas en la identidad tanto para las identidades humanas como para las no humanas. La clave es limitar lo que los agentes de IA pueden hacer sin supervisión, reconociendo que la manipulación es inevitable.

    La solución, según Feinberg, es aplicar los mismos principios de gobernanza y seguridad a los agentes de IA que a los empleados humanos. Esto incluye la asignación de permisos, la implementación del acceso de mínimo privilegio, la provisión de supervisión continua y el establecimiento de políticas claras para prevenir el abuso. Además, las organizaciones deben priorizar la visibilidad de la actividad de los agentes de IA para detectar y responder a posibles amenazas en tiempo real.

    El desafío no es evitar que los atacantes manipulen la IA, sino mitigar el daño potencial que pueden infligir. Así como es imposible evitar que los atacantes realicen phishing a los empleados, es igualmente imposible evitar que manipulen a los agentes de IA. La atención debe centrarse en limitar el alcance de las acciones de los agentes de IA y proporcionar mecanismos de supervisión robustos. La adopción de prácticas de gobernanza y seguridad de la identidad es crucial para gestionar los riesgos asociados con los ataques impulsados por la IA.

    El auge de agentes de IA como Operator de OpenAI y los modelos de código abierto DeepSeek representa un cambio significativo en el panorama de amenazas, permitiendo a los atacantes automatizar y ejecutar ataques sofisticados con mínimo esfuerzo. Las guardrails tradicionales de IA son fácilmente eludibles, y el potencial de manipulación de la IA para llevar a cabo acciones maliciosas – desde la creación de señuelos de phishing hasta el desarrollo de ransomware – está aumentando rápidamente. Las organizaciones deben adoptar controles de seguridad robustos, tratar a los agentes de IA con la misma gobernanza de identidad que a los empleados humanos, y asumir que la manipulación es inevitable para prepararse ante esta amenaza en evolución.

  • China exige etiquetado de IA para combatir la desinformación

    China ha introducido nuevas regulaciones que exigen que todo el contenido en línea generado por inteligencia artificial sea etiquetado claramente, tanto visible como invisiblemente. Estas directrices, que entrarán en vigor el 1 de septiembre de 2025, tienen como objetivo combatir el uso indebido de la IA y la difusión de desinformación, reflejando las crecientes preocupaciones sobre el potencial del contenido generado por IA para engañar al público.

    China está implementando un marco regulatorio integral para gobernar el uso de contenido generado por inteligencia artificial (IA) en línea, con el objetivo de mitigar los riesgos asociados con su mal uso y la proliferación de desinformación. Esta iniciativa, anunciada el 15 de marzo de 2025, implica un conjunto de directrices emitidas conjuntamente por cuatro organismos gubernamentales clave: la Administración del Ciberespacio de China, el Ministerio de Industria y Tecnología de la Información, el Ministerio de Seguridad Pública y la Administración Nacional de Radio y Televisión. Las regulaciones entrarán en vigor el 1 de septiembre de 2025, proporcionando un plazo significativo para el cumplimiento y la adaptación.

    La principal motivación detrás de este impulso regulatorio surge del deseo de abordar las crecientes preocupaciones en torno al potencial de que el contenido generado por IA sea explotado con fines maliciosos. Un portavoz de la Administración del Ciberespacio declaró explícitamente que la medida tiene como objetivo “poner fin al mal uso de las tecnologías generativas de IA y la difusión de información falsa”. Esto destaca la postura proactiva del gobierno para salvaguardar la confianza pública y mantener un entorno en línea estable en medio de los rápidos avances tecnológicos. La creciente sofisticación de las herramientas de IA, capaces de generar texto, imágenes, audio y video realistas, ha dificultado cada vez más la distinción entre contenido auténtico y fabricado, lo que requiere medidas regulatorias sólidas.

    Las directrices exigen un sistema de etiquetado de doble capa para todo el contenido generado por IA. En primer lugar, se requieren *etiquetas explícitas* para el contenido generado por “tecnologías de síntesis profunda”, aquellas con el potencial de engañar o confundir al público. Estas etiquetas deben colocarse en una “posición razonable” dentro del contenido o la interfaz de usuario, asegurando que sean fácilmente perceptibles para los usuarios. La forma de estas etiquetas puede variar, abarcando texto, sonido o gráficos, siempre que sean “claramente perceptibles”. Este énfasis en la visibilidad subraya la importancia de la transparencia y la conciencia del usuario. Por ejemplo, un video creado con IA para simular un evento noticioso necesitaría una etiqueta clara y prominente que indique su origen sintético.

    En segundo lugar, las directrices introducen el concepto de *etiquetas implícitas* integradas dentro de los metadatos de los archivos de contenido generado. Esta capa de etiquetado menos obvia requiere que los proveedores de servicios incluyan detalles como los atributos del contenido, el nombre o código del proveedor de servicios y números de identificación de contenido únicos. Si bien no son inmediatamente visibles para el usuario promedio, estos metadatos sirven como una capa crucial de responsabilidad y permiten el seguimiento y la verificación del contenido generado por IA. Esto es particularmente importante para identificar el origen del contenido en casos de posible mal uso o disputas legales. La inclusión de metadatos también facilita el desarrollo de herramientas y tecnologías que pueden detectar y marcar automáticamente el contenido generado por IA.

    La iniciativa regulatoria no es únicamente una imposición de arriba hacia abajo; refleja una discusión y defensa más amplias dentro del panorama político de China. A principios de marzo de 2025, durante las sesiones anuales de la 14ª Asamblea Popular Nacional (APN) y el 14º Comité Nacional de la Conferencia Consultiva Política del Pueblo Chino (CCPPCh), figuras destacadas propusieron establecer leyes y regulaciones específicamente para el contenido generado por IA. Lei Jun, fundador de Xiaomi Corp, y Jin Dong, un conocido actor, presentaron ambas propuestas, demostrando un consenso entre los responsables políticos y las figuras influyentes con respecto a la necesidad de marcos legales formales para gobernar la IA. Esto destaca el desarrollo orgánico del impulso regulatorio, impulsado tanto por las preocupaciones del gobierno como por el discurso público.

    Se espera que la implementación de estas directrices tenga un impacto significativo en varios sectores, incluidos los medios de comunicación, el entretenimiento, la educación y el comercio electrónico. Las organizaciones de medios de comunicación deberán adaptar sus procesos de creación de contenido para garantizar el cumplimiento, mientras que las empresas de entretenimiento deberán etiquetar claramente los personajes y las historias generadas por IA. Las instituciones educativas deberán educar a los estudiantes sobre el potencial de desinformación generada por IA, y las plataformas de comercio electrónico deberán evitar el uso de IA para crear reseñas o anuncios de productos engañosos. La amplia aplicabilidad de las directrices subraya su importancia para dar forma al futuro del desarrollo y uso de la IA en China.

    La noticia de estas regulaciones fue inicialmente informada por Bernama-WAM, una colaboración entre la agencia de noticias nacional de Malasia, Bernama, y la agencia de noticias de los Emiratos, WAM. Bernama, conocida por proporcionar “noticias e información completas y auténticas actualizadas”, distribuye su contenido a través de varios canales, incluidos su servicio de cable, transmisiones de televisión y radio, y plataformas de redes sociales. Esta amplia difusión de la noticia subraya la importancia de la iniciativa regulatoria y su impacto potencial en el panorama global de la IA. La confianza en agencias de noticias de renombre como Bernama y WAM refuerza la credibilidad de la información y su importancia para las partes interesadas de todo el mundo.

    China implementa nuevas regulaciones que exigen etiquetado, visible e invisible, en todo contenido generado por IA en línea, a partir del 1 de septiembre, para combatir el mal uso y la desinformación. Estas directrices, impulsadas por propuestas de líderes y actores tecnológicos, obligan al etiquetado explícito de contenido potencialmente engañoso y al etiquetado implícito de metadatos. Esta medida destaca un enfoque proactivo para gestionar el impacto social de las tecnologías de IA en rápido avance. Para obtener información regulatoria detallada, consulte el sitio web de la Administración del Ciberespacio de China.

  • Modelos IA de Baidu Desafían a OpenAI y DeepSeek en Precio y Rendimiento

    Baidu, a menudo considerada el Google de China, ha lanzado dos nuevos modelos de IA, Ernie X1 y Ernie 4.5, con el objetivo de competir con los modelos líderes de OpenAI y DeepSeek. Esta medida se produce en medio de una creciente tendencia en China a adoptar modelos de IA de código abierto y una competencia más amplia con Estados Unidos en el panorama de la IA en rápida evolución.

    Baidu, el equivalente chino a Google, ha irrumpido recientemente en el ámbito de la IA con una gran repercusión, presentando dos nuevos modelos de IA: Ernie X1 y Ernie 4.5. Estos lanzamientos marcan un momento crucial en el panorama cada vez más competitivo de la inteligencia artificial, especialmente mientras Silicon Valley lidia con los crecientes costos asociados con el desarrollo y la implementación de modelos de IA avanzados. La aparición de estos modelos chinos, especialmente considerando su supuesta rentabilidad, señala un posible cambio en la dinámica de la industria de la IA, desafiando el dominio establecido de empresas occidentales como OpenAI.

    El núcleo del anuncio de Baidu gira en torno al rendimiento y el precio de sus nuevos modelos. Ernie X1 se posiciona como un modelo de razonamiento que ofrece un rendimiento comparable a DeepSeek R1, pero a un costo significativamente menor, aproximadamente la mitad del precio. Simultáneamente, Ernie 4.5, un modelo de base multimodal, se promociona como superior a GPT-4.5 en múltiples puntos de referencia, con un precio de solo el 1% de GPT-4.5. Estas afirmaciones, si se validan, representan una ventaja sustancial en términos de accesibilidad y asequibilidad para desarrolladores y usuarios. Para subrayar aún más su compromiso con una adopción más amplia, Baidu también ha decidido hacer que su chatbot, Ernie Bot, esté disponible gratuitamente para el público a partir del 1 de abril, una medida acelerada antes de su calendario original.

    Para comprender la magnitud de las afirmaciones de Baidu, es crucial analizar más de cerca las estructuras de precios de estos modelos de IA. El costo de usar modelos de IA generalmente se determina por la cantidad de tokens procesados, tanto como entrada como salida. Ernie 4.5 de Baidu presume de precios iniciales increíblemente bajos: 0.004 yuanes chinos por cada mil tokens de entrada y 0.016 por cada mil tokens de salida. Cuando se convierten a dólares estadounidenses, estas cifras resaltan un contraste sorprendente. Si bien las comparaciones de costos de Baidu con el último modelo GPT-4.5 de OpenAI se mantienen, la rentabilidad del modelo V3 de DeepSeek es solo marginalmente mejor que Ernie 4.5. Sin embargo, al considerar los modelos de razonamiento, Ernie X1 emerge como el claro ganador, con precios de poco menos del 2% de o1 de OpenAI, lo que demuestra una ventaja de costo significativa.

    Las primeras reacciones al rendimiento de Ernie han sido alentadoras. Alvin Foo, socio de riesgo en Zero2Launch, compartió su experiencia positiva en X, afirmando: “He estado jugando con él durante horas, un rendimiento impresionante”. Esta evidencia anecdótica, junto con las afirmaciones de Baidu, sugiere que los modelos Ernie no solo son rentables, sino que también son capaces de ofrecer resultados de alta calidad. El potencial de Ernie para perturbar el mercado depende de la validación continua de su rendimiento y la adopción generalizada por parte de desarrolladores y usuarios.

    El lanzamiento de los modelos Ernie está inextricablemente ligado a la creciente tendencia de la IA de código abierto en China. El éxito de DeepSeek con sus modelos V3 y R1, que se consideraron competitivos con las ofertas de OpenAI a una fracción del costo, destacó el poder de la apertura de los modelos de IA. Robin Li, CEO de Baidu, reconoció este fenómeno durante una llamada de ganancias en febrero, afirmando: “Una cosa que aprendimos de DeepSeek es que la apertura de los mejores modelos puede ayudar en gran medida a la adopción. Cuando el modelo es de código abierto, la gente naturalmente quiere probarlo por curiosidad, lo que ayuda a impulsar una adopción más amplia”. Siguiendo esta lógica, Baidu anunció que la serie Ernie 4.5 será de código abierto a partir del 30 de junio. Si bien la compañía se negó a comentar sobre la apertura del modelo X1, el compromiso de abrir la serie 4.5 refuerza la estrategia de China de fomentar la innovación y acelerar el desarrollo de la IA a través de esfuerzos de colaboración.

    La ambición de China de convertirse en líder mundial en IA para 2030 está impulsando una ola de innovación, con numerosas empresas que lanzan nuevos modelos y agentes de IA. Esto incluye el modelo de código abierto de Alibaba, QwQ-32B, y el agente de IA Manus, ambos lanzados a principios de este mes. La competencia se está intensificando, y aunque los expertos de la industria habían anticipado previamente el lanzamiento de R2 de DeepSeek como un evento importante, la colección Ernie de Baidu presenta un desafío formidable, que podría remodelar el panorama competitivo. La combinación de rentabilidad, rendimiento competitivo y un compromiso con el código abierto posiciona a Ernie como un jugador importante en la carrera mundial de la IA.

    La presentación de Ernie X1 y Ernie 4.5 de Baidu, con un rendimiento competitivo a costos significativamente menores que OpenAI y DeepSeek, resalta la creciente destreza de China en IA y su adopción de modelos de código abierto. La competencia se intensifica, potencialmente alterando el panorama de la carrera de IA; es momento de monitorear de cerca cómo estos avances remodelarán el futuro de la innovación y accesibilidad en IA.

  • Computadora Cuántica Resuelve Problema de Materiales Complejos

    D-Wave Quantum Inc. ha logrado un hito significativo en la computación cuántica, resolviendo un problema del mundo real utilizando su prototipo de computadora cuántica de recocido D-Wave Advantage 2. Este logro, confirmado por un artículo revisado por pares, destaca el potencial de las computadoras cuánticas para abordar desafíos complejos que superan las capacidades incluso de las supercomputadoras más potentes, ofreciendo una nueva frontera en la computación.

    D-Wave Quantum Inc. ha logrado un hito significativo en el campo de la computación cuántica, demostrando la capacidad de su prototipo de computadora cuántica de recocido D-Wave Advantage 2 para resolver un problema del mundo real, prácticamente útil. Este logro, validado por una publicación revisada por pares en una revista científica de renombre, marca un paso crucial hacia la aplicación práctica de la computación cuántica más allá de las posibilidades teóricas y la generación de números aleatorios. El avance de la compañía desafía la percepción de que las computadoras cuánticas son meramente una fuente de exageración y promete beneficios tangibles para las industrias que dependen de la ciencia de materiales complejos.

    El problema resuelto por la computadora cuántica D-Wave gira en torno a la simulación de vidrios de espín programables, un problema computacionalmente desafiante relacionado con los materiales magnéticos. Estos materiales, cruciales en diversas aplicaciones que van desde la medicina hasta los semiconductores y utilizados en sensores y motores, son increíblemente pequeños, lo que dificulta la comprensión de sus interacciones en el descubrimiento de materiales. Debido a que la física cuántica rige el comportamiento de estos materiales, descifrar su naturaleza cuántica es clave para identificar nuevas aplicaciones y optimizar las existentes. Los centros de computación de alto rendimiento (HPC) y las supercomputadoras tradicionales se basan en unidades de procesamiento gráfico (GPU) para abordar estas simulaciones, un método que consume mucha energía y tiempo. El equipo de D-Wave reconoció el potencial de su computadora cuántica para abordar este problema específico, seleccionándolo como un caso de prueba adecuado para demostrar la utilidad en el mundo real.

    El principio fundamental detrás de la solución de D-Wave Advantage 2 reside en su uso del recocido cuántico. Esta forma especializada de computación cuántica aprovecha la mecánica cuántica para encontrar eficientemente soluciones óptimas a problemas complejos. El proceso comienza con el sistema existente en una superposición de todas las soluciones posibles, lo que representa un estado de alta energía. La computadora cuántica luego apunta a la transición a su estado de energía mínimo o más bajo a través de un proceso cuidadosamente controlado conocido como recocido. Esto implica ajustar gradualmente los parámetros del sistema, permitiendo que el sistema cuántico se “asiente” en la solución más favorable. Este método permite una búsqueda más eficiente de soluciones óptimas en comparación con los algoritmos clásicos.

    La dramática diferencia en el tiempo de procesamiento entre la computadora cuántica D-Wave y una supercomputadora convencional destaca el potencial de la computación cuántica. Cuando el mismo problema, la simulación de vidrios de espín programables, se presentó a la D-Wave Advantage 2 y a la supercomputadora Frontier en el Laboratorio Nacional Oak Ridge (ORNL), la computadora cuántica entregó resultados en cuestión de minutos. Por el contrario, las estimaciones sugieren que la supercomputadora Frontier requeriría un millón de años para resolver el mismo problema, al tiempo que consumiría una cantidad de electricidad equivalente al consumo global anual. Esta disparidad subraya el potencial de las computadoras cuánticas para reducir drásticamente el tiempo de cálculo y el consumo de energía para ciertos tipos de problemas.

    La importancia de este logro es enfatizada por el Dr. Alan Baratz, CEO de D-Wave, quien lo describió como un “día notable para la computación cuántica” y una “primicia en la industria”. Además, aclaró que las afirmaciones anteriores de que los sistemas cuánticos superaban a las computadoras clásicas a menudo se habían encontrado con escepticismo o involucraban tareas sin valor práctico, como la generación de números aleatorios. La declaración de Baratz aborda directamente las preocupaciones sobre la relevancia práctica de los avances en computación cuántica, afirmando que la demostración de D-Wave prueba inequívocamente que sus computadoras cuánticas de recocido pueden abordar problemas más allá de las capacidades incluso de las supercomputadoras más potentes del mundo.

    Más allá de la solución inmediata al problema del vidrio de espín, D-Wave está haciendo activamente que su tecnología sea accesible a un público más amplio. La compañía ofrece acceso a su procesador cuántico a través de su servicio de nube cuántica, lo que permite a los investigadores y desarrolladores experimentar con algoritmos cuánticos y explorar posibles aplicaciones. Además, D-Wave ha expandido significativamente el tamaño y la capacidad de su procesador, aumentándolo cuatro veces y agregando miles de cúbits. Esta expansión contribuye directamente a la capacidad de la computadora para manejar problemas cada vez más complejos y consolida aún más su posición como líder en el panorama de la computación cuántica.

    La publicación de estos hallazgos de investigación en la prestigiosa revista *Science* valida aún más la importancia del logro de D-Wave. La revisión por pares en una revista científica respetada proporciona una evaluación rigurosa de la metodología, los resultados y las conclusiones, lo que garantiza la credibilidad y la fiabilidad de los hallazgos. Esta publicación sirve como una demostración tangible del progreso que se está logrando en la computación cuántica y su potencial para revolucionar varios campos, desde la ciencia de materiales hasta el descubrimiento de fármacos y más allá.

    D-Wave Quantum Inc. demostró supremacía computacional cuántica al resolver un problema complejo del mundo real: simular vidrios de espín programables, un problema de materiales magnéticos computacionalmente difícil, utilizando su computadora cuántica Advantage 2. Este logro, validado por una publicación revisada por pares en *Science*, muestra el potencial de la computación cuántica para superar incluso a las supercomputadoras más potentes del mundo, ofreciendo una vía prometedora para avances en el descubrimiento de materiales y más allá. El futuro de la computación podría residir en aprovechar el poder de la mecánica cuántica.