Category: Innovation and Technology

Innovation

  • Oficina se inicia con el arranque: PC más lento

    Microsoft está introduciendo una nueva función llamada “Startup Boost” para aplicaciones de Office como Word y Excel, diseñada para que se inicien más rápido al cargarlas durante el inicio de Windows. Si bien esto tiene como objetivo mejorar el rendimiento, también podría ralentizar ligeramente la velocidad general de tu computadora.

    Microsoft está introduciendo una función “Startup Boost” para su suite Office, una medida que iniciará automáticamente aplicaciones de Office como Word y Excel cuando Windows se inicie. Esta función tiene como objetivo mejorar la velocidad percibida de inicio de estas aplicaciones.

    Sin embargo, esta iniciativa ha generado cierto escepticismo. El autor expresa una visión cínica, destacando los posibles inconvenientes de este enfoque. Específicamente, el autor sugiere que si bien la función podría hacer que las aplicaciones de Office parezcan más rápidas, podría simultáneamente ralentizar el rendimiento general de la computadora durante el inicio. Esto se debe a que el sistema se verá sobrecargado con la carga de componentes de Office junto con otros programas de inicio.

    El cinismo del autor se ve alimentado aún más por la pregunta de por qué Microsoft está optando por este método, en lugar de centrarse en optimizar la eficiencia de las propias aplicaciones de Office. La preocupación principal es que, en lugar de mejorar el rendimiento subyacente del software, Microsoft está empleando una técnica que prioriza un inicio inicial más rápido a expensas de la capacidad de respuesta general del sistema.

    En defensa de Microsoft, la función “Startup Boost” solo se habilitará en PC que cumplan con requisitos de hardware específicos. El anuncio, según lo informado por The Verge, especifica un requisito mínimo de 8 GB de RAM y 5 GB de espacio libre en disco. Este es un intento de mitigar el posible impacto negativo en los usuarios con máquinas menos potentes.

    A pesar de esto, el autor todavía considera el requisito de 8 GB de RAM como algo optimista para ejecutar Windows 11 de manera efectiva. Esto sugiere una preocupación de que, incluso con las especificaciones mínimas de hardware, los usuarios aún podrían experimentar una degradación del rendimiento.

    El lanzamiento de la función “Startup Boost” comenzará con Microsoft Word a mediados de mayo y posteriormente se extenderá a otros programas de Office. Esta implementación por fases permite a Microsoft monitorear el impacto de la función y realizar ajustes según sea necesario.

    Crucialmente, el autor señala que los usuarios tendrán la capacidad de deshabilitar la función “Startup Boost”. Esto se puede hacer a través de la configuración de Word o a través del Programador de tareas, lo que brinda a los usuarios control sobre el comportamiento de su sistema. Este es un aspecto importante, ya que permite a los usuarios elegir si priorizar o no el inicio más rápido de las aplicaciones de Office.

    Microsoft lanza “Startup Boost” para Office 365, acelerando la apertura de aplicaciones al cargarlas al inicio de Windows, aunque esto podría ralentizar el equipo. Requiere 8GB de RAM y 5GB de espacio libre, comenzando con Word a mediados de mayo, con opción de desactivación. Se prefiere una Office más eficiente a una mejora de rendimiento a costa del sistema.

  • Década sin aumento, luego $50 millones

    El CEO de Nvidia, Jensen Huang, ha pasado una década sin aumento salarial, sin embargo, su patrimonio neto se ha disparado gracias al notable crecimiento de la empresa, impulsado particularmente por su dominio en el mercado de hardware de inteligencia artificial generativa. Este artículo detalla los recientes cambios en la compensación de Huang y la asombrosa riqueza que ha acumulado como resultado del éxito de Nvidia.

    A pesar de no haber recibido un aumento salarial durante una década, el CEO de Nvidia, Jensen Huang, ha acumulado una riqueza significativa debido al aumento vertiginoso del precio de las acciones de la empresa. De hecho, la fortuna de Huang se ha visto impulsada por el notable crecimiento de Nvidia, especialmente en la revolución de la IA generativa. El precio de las acciones de la empresa se ha disparado de aproximadamente $0.50 a principios de 2015 a $111.61 actualmente, lo que representa un asombroso aumento del 22,222%.

    En consecuencia, la principal fuente de riqueza de Huang es su participación del 3.5% en Nvidia. Esta participación está valorada actualmente en alrededor de $94 mil millones, lo que consolida su posición entre las personas más ricas del mundo. Si bien su salario base se mantuvo relativamente estable en alrededor de $1 millón por año durante un período significativo, su paquete de compensación general se ha visto significativamente aumentado por el rendimiento de la empresa.

    Sin embargo, en una medida reciente, el comité de compensación de Nvidia ha ajustado la compensación de Huang para que se alinee mejor con la de los CEO de empresas similares. Este ajuste incluye un aumento sustancial en su salario base. Específicamente, el salario base de Huang se ha incrementado en un 49% a $1.5 millones, lo que marca su primer aumento desde 2015.

    Además, el paquete de compensación de Huang se extiende más allá de su salario base. Su compensación variable en efectivo también experimentó un aumento del 50%, alcanzando $1 millón. Además, las concesiones de acciones experimentaron un salto significativo, llegando a $38.8 millones.

    Además, la compensación de Huang incluye beneficios adicionales. Estos abarcan $3.5 millones en honorarios residenciales, de seguridad y de consultoría, junto con servicios de chófer, monitoreo de seguridad y gastos de automóvil. Según Nvidia, estos gastos se consideran necesarios debido al estatus de alto perfil de Huang. Esto representa un aumento de $1.3 millones en comparación con el año anterior.

    En total, la compensación total de Huang para el año fiscal 2025 alcanzó los $49,866,251. Esta cifra subraya la importante disparidad entre la compensación del CEO y la del empleado medio. A modo de comparación, la compensación total del empleado medio para el mismo período fue de $301,233.

    El comité de compensación justificó el aumento del salario base, afirmando que era “apropiado en consideración de la equidad salarial interna con los salarios base de otros NEOs”, y que este era el primer aumento de Huang en diez años. Esto indica un esfuerzo estratégico para garantizar una compensación justa dentro del equipo ejecutivo.

    A pesar de su inmensa riqueza, el patrimonio neto de Huang, como el de otros líderes tecnológicos, ha experimentado fluctuaciones. Según el Índice de Multimillonarios de Bloomberg, Huang es actualmente la 17ª persona más rica a nivel mundial, con una fortuna de $97.9 mil millones. Sin embargo, su patrimonio neto ha disminuido en $16.4 mil millones este año.

    En contraste, Elon Musk, a pesar de también experimentar una disminución en su patrimonio neto, aún lidera la lista. El patrimonio neto de Musk ha disminuido en $101 mil millones en 2025, pero aún encabeza la lista con una valoración de $332 mil millones. Esto resalta la naturaleza dinámica de la riqueza en el sector tecnológico.

    A pesar de una década sin aumento salarial base, la fortuna de Jensen Huang, CEO de Nvidia, se disparó a $97.9 mil millones gracias al auge de las acciones de la compañía impulsado por la revolución de la IA. Recientemente recibió un paquete de compensación significativo de casi $50 millones, incluyendo un aumento salarial del 49% y mayores asignaciones de acciones, justificado por la comparación con otros CEOs y su alto perfil. Esto resalta la desconexión entre la compensación ejecutiva y el salario de los empleados, planteando interrogantes sobre la distribución equitativa de la riqueza en la industria tecnológica.

  • Las células recuerdan la fuerza: Cómo podría cambiar tu entrenamiento

    ¿Alguna vez has notado cómo puedes retomar un pasatiempo después de un largo descanso y aún sentirte relativamente cómodo? Una nueva investigación de la Universidad Northeastern sugiere que nuestras células podrían ser la razón. Los científicos han descubierto que las células poseen una “memoria” de la fuerza, un empuje o tracción sobre un objeto, y que estos cambios persisten incluso después de que la fuerza se elimina, lo que podría explicar por qué el ejercicio intermitente puede tener beneficios similares a los entrenamientos continuos.

    Nuestras células poseen una forma de memoria, particularmente en lo que respecta a las fuerzas que experimentan, lo cual tiene implicaciones significativas para el ejercicio. Esta innovadora investigación de la Universidad Northeastern desafía la comprensión convencional de las respuestas celulares al estrés mecánico, revelando que las células retienen los efectos de la fuerza incluso después de que esta se elimina.

    Antes de este estudio, se creía ampliamente que el impacto celular de la fuerza era transitorio, cesando inmediatamente tras su eliminación. Sin embargo, Ning Wang, profesor de bioingeniería y director del Instituto de Mecanobiología de Northeastern, y su equipo demostraron que este no es el caso. Wang afirma: “Una vez que se elimina la fuerza, la gente pensaba que el efecto en la célula había terminado; demostramos que no es cierto. Las células recuerdan lo que experimentaron antes, y se tiene el mismo impacto después de que se elimina la fuerza”. Este hallazgo altera fundamentalmente nuestra percepción de cómo las células reaccionan a los estímulos físicos.

    El hallazgo clave del estudio es que los efectos celulares de la fuerza se acumulan con el tiempo, independientemente de si la fuerza se aplica de forma continua o intermitente. Esto significa que las ráfagas cortas de ejercicio pueden ser tan efectivas como los entrenamientos más largos y continuos para desencadenar respuestas celulares beneficiosas.

    Los investigadores aplicaron fuerza a células epiteliales de hámster agitando una pequeña perla magnética unida a la superficie celular. Probaron la aplicación de fuerza continua durante 30 y 60 minutos, y la aplicación de fuerza intermitente, que consistía en múltiples episodios de 2 o 10 minutos intercalados con períodos de descanso, también durante 60 minutos. Los resultados mostraron que tanto 60 minutos de fuerza continua como 60 minutos de fuerza intermitente produjeron efectos celulares similares.

    El mecanismo celular detrás de esta memoria involucra el citoesqueleto y la proteína YAP. A medida que se aplica la fuerza, las células construyen su citoesqueleto con una proteína llamada actina. Una vez que se alcanza una cantidad crítica de actina, desencadena que la proteína YAP se mueva del citoplasma de la célula a su núcleo. Dentro del núcleo, YAP se une al ADN e inicia una serie de señales químicas, lo que conduce a la expresión de un gen llamado CTGF. Esta expresión génica es un indicador clave de la respuesta de la célula al estrés mecánico.

    Los investigadores descubrieron que 30 minutos de fuerza continua eran insuficientes para desencadenar la translocación de YAP y la posterior expresión génica. Sin embargo, tanto 60 minutos de fuerza continua como 60 minutos de fuerza intermitente, con períodos de descanso, fueron suficientes para lograr este efecto. Esto resalta la importancia de acumular fuerza por encima de un cierto umbral, en lugar de la aplicación continua de fuerza.

    Esta investigación tiene implicaciones significativas para los regímenes de ejercicio, particularmente para las personas con movilidad o resistencia limitadas. Los hallazgos sugieren que las ráfagas cortas de ejercicio, similares a las del entrenamiento a intervalos, pueden ser tan efectivas como los entrenamientos más largos y continuos para lograr los beneficios celulares del ejercicio. Esto es particularmente prometedor para las personas mayores o aquellas con limitaciones físicas, ya que ofrece un enfoque de ejercicio más accesible y potencialmente menos extenuante.

    Wang enfatiza el contraste entre la memoria celular de la fuerza y la sensación inmediata de dolor. Explica: “Una persona fuerte te empuja y sientes dolor, y luego se libera la fuerza y el dolor desaparece después de unos segundos. Demostramos que no es cierto si agitas suavemente las células: recuerdan eso durante al menos 30 minutos, a veces incluso 60 minutos”. Esto resalta el impacto único y duradero de la fuerza en las células en comparación con otras respuestas corporales.

    En esencia, el estudio revela que las células son notablemente adaptables y poseen una memoria sofisticada de su entorno mecánico. Wang concluye: “Las células son en realidad muy, muy inteligentes de alguna manera. Cualquier cosa que les hagas, lo recuerdan”. Esta comprensión abre nuevas vías para optimizar las estrategias de ejercicio y promover la salud celular.

    Las células demuestran una “memoria” de la fuerza, conservando efectos incluso después de eliminar la fuerza. Esta investigación revela que ráfagas cortas y repetidas de estrés mecánico, similares a las del ejercicio a intervalos, pueden desencadenar las mismas respuestas celulares que los entrenamientos continuos, lo que podría beneficiar a personas con movilidad limitada. La exploración adicional de la mecanobiología celular podría revolucionar los enfoques del ejercicio y la salud.

  • Salto Cuántico: Nuevo Dispositivo Acelera Computación Cuántica

    Las computadoras cuánticas tienen un inmenso potencial para avances en campos como la ciencia de materiales y el aprendizaje automático, pero su aplicación práctica depende de su capacidad para realizar operaciones de forma rápida y precisa. Un desafío clave reside en el proceso de “lectura” – la medición del estado cuántico – que está limitado por la fuerza de la interacción entre fotones (partículas de luz) y átomos artificiales utilizados para almacenar información. Ahora, investigadores del MIT han logrado un avance significativo al demostrar un acoplamiento luz-materia dramáticamente más fuerte, lo que potencialmente allana el camino para cálculos cuánticos mucho más rápidos.

    En el ámbito de las posibilidades futuras, las computadoras cuánticas tienen el potencial de revolucionar varios campos, desde la simulación de nuevos materiales hasta la aceleración de modelos de aprendizaje automático. Sin embargo, la realización de este potencial depende de la capacidad de las computadoras cuánticas para realizar operaciones a velocidades increíblemente altas. Esto se debe a que la precisión y la fiabilidad de estas máquinas se ven constantemente amenazadas por las tasas de error compuestas.

    Para combatir estos errores, los científicos deben realizar mediciones y correcciones rápidas. La eficiencia de este proceso de medición, conocido como lectura (readout), está directamente relacionada con la fuerza del acoplamiento entre los fotones, que transportan la información cuántica, y los átomos artificiales, que almacenan esta información dentro de una computadora cuántica.

    Ahora, un equipo de investigadores del MIT ha logrado un avance significativo en esta área. Han demostrado lo que creen que es el acoplamiento no lineal luz-materia más fuerte jamás observado en un sistema cuántico. Este logro representa un paso crucial hacia la realización de operaciones y lecturas cuánticas que podrían completarse en unos pocos nanosegundos.

    Los investigadores lograron esta hazaña utilizando una nueva arquitectura de circuito superconductor. Su experimento mostró un acoplamiento no lineal luz-materia que es aproximadamente un orden de magnitud más fuerte que las demostraciones anteriores. Esta mejora podría permitir que un procesador cuántico funcione aproximadamente 10 veces más rápido.

    Si bien queda un trabajo significativo por hacer antes de que esta arquitectura pueda integrarse en una computadora cuántica real, la demostración de la física subyacente es un gran paso adelante. Según Yufeng “Bright” Ye, el autor principal del artículo, este avance podría “realmente eliminar uno de los cuellos de botella en la computación cuántica”. Además, explica que la capacidad de acelerar el proceso de lectura podría acelerar el desarrollo de la computación cuántica tolerante a fallos, lo que en última instancia permitiría la realización de aplicaciones y valor del mundo real a partir de las computadoras cuánticas.

    La investigación se basa en años de trabajo teórico realizado dentro del grupo O’Brien. Ye, que se unió al laboratorio como estudiante de doctorado en 2019, jugó un papel fundamental en este avance. Inventó un nuevo tipo de acoplador cuántico, un dispositivo que facilita las interacciones entre los qubits, que son los bloques de construcción fundamentales de una computadora cuántica. Este “acoplador de quartones” demostró un inmenso potencial en las operaciones y la lectura cuánticas, convirtiéndose rápidamente en un foco central de la investigación.

    El acoplador de quartones es un circuito superconductor especializado diseñado para generar un acoplamiento no lineal extremadamente fuerte, un elemento crucial para ejecutar la mayoría de los algoritmos cuánticos. A medida que se introduce más corriente en el acoplador, la interacción no lineal se intensifica. En este contexto, la no linealidad significa que un sistema se comporta de una manera que es mayor que la suma de sus partes, exhibiendo propiedades más complejas.

    Ye explica que “la mayoría de las interacciones útiles en la computación cuántica provienen del acoplamiento no lineal de la luz y la materia”. Aumentar la fuerza de acoplamiento y proporcionar una gama más versátil de tipos de acoplamiento puede, esencialmente, aumentar la velocidad de procesamiento de la computadora cuántica.

    Para la lectura cuántica, el proceso implica hacer brillar luz de microondas sobre un qubit. El cambio de frecuencia de su resonador de lectura asociado indica entonces si el qubit está en el estado 0 o 1. El acoplamiento no lineal luz-materia entre el qubit y el resonador es esencial para esta medición.

    Los investigadores del MIT diseñaron una arquitectura con un acoplador de quartones conectado a dos qubits superconductores en un chip. Un qubit actúa como resonador, mientras que el otro sirve como un átomo artificial que almacena información cuántica. Esta información se transfiere en forma de partículas de luz de microondas, conocidas como fotones. Ye enfatiza que la interacción entre estos átomos artificiales superconductores y la luz de microondas es la base sobre la cual se construye toda una computadora cuántica superconductora.

    La capacidad del acoplador de quartones para crear un acoplamiento no lineal luz-materia que es un orden de magnitud más fuerte que los logros anteriores podría conducir a una lectura ultrarrápida. Esto podría permitir que un sistema cuántico realice operaciones a velocidades sin precedentes.

    Kevin O’Brien, el autor principal del artículo, enfatiza que este trabajo no es el capítulo final. El equipo está trabajando activamente en la realización de una lectura aún más rápida mediante la adición de componentes electrónicos adicionales, como filtros, para crear un circuito de lectura que pueda integrarse en un sistema cuántico más grande.

    Además, los investigadores también demostraron un acoplamiento materia-materia extremadamente fuerte, otro tipo de interacción de qubit fundamental para las operaciones cuánticas. Esta es otra área que planean explorar en trabajos futuros.

    La importancia de las operaciones y la lectura rápidas se ve subrayada por la vida útil finita de los qubits, un concepto conocido como tiempo de coherencia. Un acoplamiento no lineal más fuerte permite que un procesador cuántico funcione más rápido y con menores tasas de error, lo que permite que los qubits realicen más operaciones en el mismo período de tiempo. Esto, a su vez, permite más rondas de corrección de errores durante su vida útil.

    Ye destaca la importancia de esto, afirmando que “cuantas más ejecuciones de corrección de errores puedas obtener, menor será el error en los resultados”.

    A largo plazo, esta investigación podría allanar el camino para la construcción de una computadora cuántica tolerante a fallos, que es esencial para la computación cuántica práctica a gran escala. Este trabajo fue apoyado por la Oficina de Investigación del Ejército, el Centro de Computación Cuántica de AWS y el Centro de Ingeniería Cuántica del MIT.

    Investigadores del MIT han logrado un avance en computación cuántica al demostrar un acoplamiento luz-materia no lineal significativamente más fuerte mediante un nuevo acoplador “quarton”. Este avance promete operaciones y lectura cuánticas mucho más rápidas, acelerando potencialmente el desarrollo de computadoras cuánticas tolerantes a fallos y desbloqueando sus aplicaciones en el mundo real. Aunque se necesita más desarrollo, este trabajo representa un paso crucial hacia la realización del potencial completo de la computación cuántica, un futuro donde los problemas complejos se vuelven resolubles.

  • Apple: Aranceles Añadirán $900M en Costos, Futuro Incierto

    Durante la llamada de resultados del segundo trimestre de Apple, el CEO Tim Cook abordó el impacto de los aranceles del Presidente Trump en la compañía. Si bien el efecto inmediato pareció limitado, Apple estima que los aranceles podrían agregar $900 millones a los costos en el próximo trimestre, aunque esta proyección depende de que las políticas comerciales actuales permanezcan sin cambios.

    El CEO de Apple, Tim Cook, abordó el impacto de los aranceles del presidente Trump en la compañía durante la llamada de ganancias del segundo trimestre. Si bien el impacto inicial en el trimestre de marzo fue limitado, Cook reconoció la incertidumbre en torno a los trimestres futuros debido a la naturaleza cambiante de la política comercial estadounidense.

    Específicamente, Apple estimó que los aranceles agregarían $900 millones a sus costos en el tercer trimestre, asumiendo que las tasas arancelarias globales, las políticas y las aplicaciones actuales permanecieran sin cambios y no se implementaran nuevos aranceles. Sin embargo, esta estimación se presentó con cautela, ya que Cook enfatizó que no debería usarse para predecir el impacto en los trimestres posteriores debido a “factores únicos” que benefician al trimestre de junio.

    Además, Cook restó importancia al impacto inmediato de los aranceles, destacando la estrategia de abastecimiento existente de Apple. Señaló que aproximadamente la mitad de los iPhones para el mercado estadounidense ya se obtienen de India, y la mayoría de los otros productos para el mercado estadounidense provienen de Vietnam. Esta estrategia de diversificación probablemente mitiga algunos de los costos relacionados con los aranceles.

    Sin embargo, los inversores se mantuvieron preocupados por el futuro. Cuando se le presionó para obtener más detalles sobre el trimestre de junio y más allá, Cook evitó hacer predicciones, afirmando: “No quiero predecir el futuro, porque no estoy seguro de lo que sucederá con los aranceles”. Esta reticencia subraya la imprevisibilidad de la situación.

    Además, la participación de Cook en las discusiones sobre los aranceles fue evidente. Anteriormente se había reunido con el presidente Trump, y poco después, los iPhones de Apple se salvaron de los cambios en la política comercial que podrían haber aumentado significativamente los precios. Esto sugiere que Apple está trabajando activamente para navegar por el complejo panorama comercial.

    En respuesta al entorno incierto, Cook reiteró el compromiso de Apple con su estrategia a largo plazo. Declaró que la compañía continuaría tomando “decisiones reflexivas y deliberadas, con un enfoque en la inversión a largo plazo y con dedicación a la innovación y las posibilidades que crea”.

    En conclusión, si bien el impacto inicial de los aranceles en Apple pareció limitado, la compañía reconoció la incertidumbre inherente en torno a los trimestres futuros. Los comentarios de Cook destacaron el enfoque proactivo de Apple para gestionar la situación, incluida la diversificación de abastecimiento y la participación con los responsables políticos. Sin embargo, la perspectiva cautelosa de la compañía refleja la naturaleza impredecible de la política comercial estadounidense, lo que obliga a los inversores a permanecer vigilantes sobre los posibles efectos a largo plazo.

    Apple prevé que los aranceles añadan $900 millones a los costos del tercer trimestre si las políticas comerciales actuales no cambian, aunque esto es un impacto limitado y potencialmente temporal. La empresa está diversificando su abastecimiento a India y Vietnam, pero Tim Cook advierte contra la proyección de futuros efectos arancelarios debido a la imprevisibilidad de la política comercial y factores trimestrales únicos, enfatizando el compromiso de Apple con la innovación a largo plazo y la adaptación al panorama global en evolución.

  • Titanes Tecnológicos Desafían a Apple y Google

    Gigantes tecnológicos como Meta y Spotify, junto con Garmin y Match, han formado un nuevo grupo de presión llamado Coalición para una Experiencia Móvil Competitiva. Este grupo tiene como objetivo desafiar el dominio de Apple y Google en el mercado de aplicaciones móviles, particularmente en lo que respecta a su control sobre las tiendas de aplicaciones y las reglas que los desarrolladores deben seguir. Su enfoque inicial es abogar por que las tiendas de aplicaciones, en lugar de las aplicaciones individuales, sean responsables de la verificación de edad.

    Meta, junto con Spotify, Garmin, Match y otros, ha establecido un grupo de presión llamado Coalición para una Experiencia Móvil Competitiva. Esta coalición tiene como objetivo defender los intereses de los desarrolladores de aplicaciones, particularmente en sus tratos con Apple y Google, los actores dominantes en el ecosistema móvil. La formación de este grupo significa un esfuerzo colectivo para abordar los desequilibrios y desafíos percibidos dentro del panorama de las aplicaciones móviles.

    El objetivo principal de la coalición es abordar cuestiones relacionadas con las políticas y prácticas de las tiendas de aplicaciones. Específicamente, el grupo se está centrando en la verificación de edad, argumentando que la responsabilidad de verificar la edad de los usuarios debería recaer en las tiendas de aplicaciones, en lugar de en las aplicaciones individuales. Como afirmó Brandon Kressin, el director de la coalición, las empresas fundadoras “dependen del ecosistema móvil para servir a sus clientes” y “reconocen que hay poder en los números, especialmente cuando se enfrentan a empresas tan poderosas como el duopolio”. Esto destaca el interés compartido en desafiar la dinámica de poder existente.

    Uno de los argumentos centrales presentados por la coalición es que las tiendas de aplicaciones deberían ser responsables de la verificación de edad. Esta postura se opone directamente a la situación actual en la que las aplicaciones individuales a menudo soportan la carga de implementar sus propias medidas de verificación de edad. La coalición cree que colocar esta responsabilidad en las tiendas de aplicaciones agilizaría el proceso y potencialmente reduciría la complejidad y el costo para los desarrolladores de aplicaciones.

    La agenda de la coalición se extiende más allá de la verificación de edad. El grupo planea abordar una serie de cuestiones que afectan a los desarrolladores de aplicaciones, incluida la garantía de que los productos de Apple y Google funcionen bien con dispositivos y software rivales. Además, la coalición tiene la intención de combatir lo que percibe como prácticas discriminatorias dentro de la App Store y Play Store. Este amplio alcance indica un enfoque integral para abogar por un ecosistema móvil más equitativo y competitivo.

    La formación de la coalición es particularmente oportuna, dada la actual situación de los casos antimonopolio contra Apple y Google. El grupo tiene la intención de ayudar al Departamento de Justicia en estos casos, demostrando aún más su compromiso de desafiar el dominio de los dos gigantes tecnológicos. Este apoyo subraya la creencia de la coalición de que la estructura actual del mercado obstaculiza la competencia y perjudica a los desarrolladores de aplicaciones.

    Los esfuerzos de la coalición ya están ganando tracción. El grupo tiene la intención de apoyar legislación similar a la ley aprobada en Utah, que exige que las tiendas de aplicaciones verifiquen la edad de los usuarios. La coalición también planea abogar por proyectos de ley equivalentes en otros estados y a nivel federal, demostrando su compromiso de promulgar cambios en las políticas. Este enfoque proactivo sugiere un plan estratégico para influir en el panorama regulatorio.

    El momento del anuncio de la coalición es digno de mención, coincidiendo con un importante revés legal para Apple. Un juez dictaminó que Apple ya no puede cobrar tarifas por las compras realizadas fuera de las aplicaciones ni restringir cómo los desarrolladores pueden dirigir a los usuarios a otras opciones de pago. Este fallo, que limita el control de Apple sobre la App Store, subraya la creciente presión sobre el gigante tecnológico y potencialmente fortalece la posición de la coalición.

    Google, sin embargo, ha respondido a los esfuerzos de la coalición acusando a Meta de intentar “descargar” su responsabilidad de mantener a los niños seguros. Esta respuesta destaca las diferentes perspectivas sobre el tema y el potencial de conflicto continuo entre la coalición y los gigantes tecnológicos. Este desacuerdo subraya la naturaleza compleja y multifacética de los problemas en juego.

    Meta, Spotify, Garmin, Match y otros han creado la Coalición para una Experiencia Móvil Competitiva para desafiar el dominio de Apple y Google, priorizando trasladar la responsabilidad de la verificación de edad a las tiendas de aplicaciones. Esta iniciativa, que coincide con un revés legal significativo para Apple, indica un esfuerzo más amplio para nivelar el campo de juego en el ecosistema móvil, una batalla que podría remodelar la distribución y el consumo de aplicaciones.

  • Apple: iPhone 20 Aniversario Necesita Experiencia China

    Se informa que Apple planea algo especial para el iPhone del 20 aniversario, cuyo lanzamiento está previsto para 2027. Sin embargo, debido a que los diseños se describen como “extraordinariamente complejos”, la compañía podría necesitar continuar fabricando los teléfonos en China, a pesar de los esfuerzos por trasladar la producción a India en respuesta a los aranceles comerciales.

    Apple, según informes, está planeando algo extraordinario para los modelos de iPhone del 20 aniversario, cuyo lanzamiento está previsto para 2027. Según Mark Gurman de Bloomberg, el diseño de estos teléfonos de edición especial es excepcionalmente complejo, lo que exige su producción en China, en lugar de India, donde Apple ha estado trasladando sus operaciones de fabricación.

    Este cambio de vuelta a China para los modelos del aniversario se debe a la complejidad del diseño. Gurman destaca que la naturaleza “extraordinariamente compleja” de los iPhones del 20 aniversario requerirá nuevas piezas y técnicas de producción. Esto hace poco probable que Apple pueda construir estos modelos fuera de China, al menos inicialmente. Sugiere que, aunque la producción podría eventualmente trasladarse a otro lugar, no sucederá para 2027.

    La decisión de fabricar en China también está influenciada por el precedente histórico establecido por Apple. Cada vez que Apple ha presentado un producto o diseño completamente nuevo, inicialmente se ha construido en China. Esto sugiere una dependencia de la infraestructura y la experiencia establecidas dentro del ecosistema de fabricación de China para manejar diseños complejos e innovadores.

    El contexto del panorama comercial global también juega un papel. China y Estados Unidos están actualmente involucrados en una guerra comercial, con ambos países imponiéndose aranceles mutuamente. Esta situación añade otra capa de complejidad a las decisiones de fabricación de Apple, ya que la empresa navega por las implicaciones políticas y económicas de sus opciones de producción.

    Las características exactas del iPhone del 20 aniversario permanecen envueltas en especulaciones. Sin embargo, se han rumoreado varios diseños potenciales. Una posibilidad es un iPhone plegable, que podría presentar un diseño similar a un libro que se asemeja a un iPhone cuando está cerrado y se abre para revelar una pantalla más grande, similar al tamaño de un iPad Mini.

    Otro diseño rumoreado involucra un “nuevo y audaz modelo Pro” con un uso extensivo de vidrio. Este diseño podría presentar una pantalla totalmente de pantalla sin recortes para la cámara, que operaría debajo de la capa de la pantalla, creando una superficie de vidrio perfecta. Este diseño representaría una desviación significativa de los modelos actuales de iPhone.

    Además, los rumores sugieren la posibilidad de un iPhone sin puertos. Esto representaría otro cambio de diseño significativo, a pesar de que Apple solo recientemente hizo la transición de su conector Lightning propietario al estándar USB-C en 2023 con la línea iPhone 15.

    Si bien se espera que los modelos de iPhone del 20 aniversario se fabriquen en China, Apple ha estado diversificando activamente sus ubicaciones de fabricación. El Financial Times informó que Apple planea ensamblar todos los iPhones destinados a Estados Unidos en India para finales del próximo año. Esta medida está impulsada por las tasas arancelarias más bajas de India en comparación con China.

    Este cambio a India refleja la estrategia más amplia de Apple de reducir su dependencia de China y mitigar los riesgos asociados con las tensiones comerciales en curso. Sin embargo, la complejidad del diseño del iPhone del 20 aniversario exige un retorno temporal a China para su producción inicial. Esto resalta el intrincado equilibrio que Apple debe lograr entre la innovación en el diseño, las capacidades de fabricación y la dinámica del comercio global.

    Se anticipa que el iPhone del 20 aniversario de Apple (2027) tendrá un diseño excepcionalmente complejo, lo que probablemente requiera su fabricación en China, a pesar del cambio más amplio de Apple a India para la producción de iPhones debido a los aranceles. Los rumores sugieren un diseño plegable o un modelo totalmente de vidrio con tecnología de cámara bajo la pantalla, mostrando la continua búsqueda de Apple de factores de forma innovadores. ¿Superarán finalmente los ambiciosos diseños de Apple las consideraciones geopolíticas?

  • Choque Espacial: Satélites de Amazon Aumentan el Peligro Orbital

    El reciente lanzamiento de los satélites del Proyecto Kuiper de Amazon representa un paso significativo en la creciente competencia por construir mega constelaciones en órbita terrestre baja. Sin embargo, esta expansión plantea serias preocupaciones sobre la sobrepoblación orbital y la posibilidad de colisiones catastróficas, a medida que más satélites y escombros llenan el espacio alrededor de nuestro planeta.

    El 28 de abril, Amazon lanzó sus primeros satélites del Proyecto Kuiper, marcando su entrada en el floreciente campo de las mega-constelaciones satelitales, un competidor directo de Starlink de SpaceX. Este lanzamiento, con 27 satélites puestos en órbita, significa el comienzo de una tendencia en la que numerosas empresas se esfuerzan por desplegar miles de satélites cada una, creando así sus propias y vastas redes en el espacio.

    Sin embargo, esta rápida expansión está causando importantes preocupaciones sobre la sobrepoblación orbital. A medida que aumenta el número de objetos en órbita, también lo hace el riesgo de colisiones, lo que podría tener consecuencias devastadoras. El artículo destaca que una colisión podría generar una cascada de escombros, haciendo que los viajes espaciales sean traicioneros o incluso conduciendo al cierre de los programas espaciales globales.

    Más allá de Amazon y SpaceX, otras entidades están contribuyendo a esta congestión. La empresa británica OneWeb, que se fusionó con Eutelsat, tiene su propia constelación. Además, las empresas chinas, incluyendo la respaldada por el gobierno Guowang y el proyecto comercial Qianfan, planean lanzar miles de satélites.

    La Agencia Espacial Europea (ESA) informó que se lanzaron más de 2.500 objetos a la órbita terrestre baja en 2024, una cifra más de cinco veces superior a cualquier año anterior a 2020. La mayoría de estos lanzamientos fueron para constelaciones de satélites comerciales, y el número de lanzamientos aumenta anualmente.

    El gran volumen de objetos en órbita es alarmante. El número de satélites activos es ahora comparable al número de fragmentos de escombros. La ESA estima que si continúan las tendencias actuales de lanzamiento, podría haber casi 50.000 objetos de más de 10 cm en órbita terrestre baja para 2050. Esto se traduce en un promedio estimado de ocho satélites lanzados diariamente, o cuatro toneladas de material enviado al espacio cada día.

    Estos satélites, si bien permiten comunicaciones cruciales y acceso a Internet en áreas remotas y zonas de desastre, están contribuyendo a la creciente congestión del espacio. Esta congestión incluye tanto satélites en funcionamiento como los restos de misiones anteriores, y se espera que el problema empeore a medida que se lancen más satélites.

    Los expertos coinciden en que se necesitan urgentemente reglas más completas para gestionar los objetos en órbita. Sin embargo, el artículo señala que en un mundo cada vez más polarizado, la idea de la cooperación global para proteger el espacio parece más remota que nunca.

    El artículo cita al investigador de escombros Vishnu Reddy de la Universidad de Arizona, quien afirma que hay una “carrera por llenar la órbita terrestre baja”. Esto no se trata solo de satélites operativos; también están presentes millones de fragmentos de basura espacial, que viajan a altas velocidades. La ESA estima que más de 1,2 millones de objetos en órbita son capaces de causar daños catastróficos si chocan con algo.

    Las posibles consecuencias de las colisiones son graves. Los pequeños fragmentos de escombros pueden crear más escombros a través de colisiones, lo que lleva a un efecto en cascada conocido como síndrome de Kessler, que podría hacer que ciertas órbitas sean inutilizables. El astrónomo Olivier Hainaut del Observatorio Europeo Austral enfatiza que si se lanzan demasiados satélites, se producirán colisiones, lo que podría desencadenar una reacción en cadena.

    El problema de la sobrepoblación orbital ya está teniendo efectos tangibles. Los satélites que están demasiado cerca entre sí pueden interferir entre sí en las transmisiones. El cambio climático exacerba el problema, ya que la atmósfera superior en contracción reduce su capacidad para derribar y destruir los escombros.

    El artículo aclara que el problema no son necesariamente los propios satélites, ya que se rastrean y monitorean. El verdadero problema radica en los miles de fragmentos de escombros no rastreados que ya están en órbita. Cuantos más satélites se lancen, mayor será la probabilidad de colisiones con estos escombros.

    La cuestión de la responsabilidad de rastrear los escombros y prevenir las colisiones es compleja. La comunidad espacial confía en gran medida en el gobierno de EE. UU. para obtener información de rastreo. Los operadores de satélites son responsables de sus satélites, y la Fuerza Espacial proporciona un catálogo de objetos.

    SpaceX ha sido relativamente responsable en la desorbitación de sus satélites inactivos. Sin embargo, el artículo plantea la cuestión de qué sucede cuando los satélites de diferentes empresas están muy cerca. Por ejemplo, cuando los satélites del Proyecto Kuiper necesitan desorbitarse y pasar por el rango orbital de Starlink, surgen posibles conflictos.

    Evitar colisiones tiene un costo financiero. Si un satélite Starlink y un satélite del Proyecto Kuiper están en curso de colisión, uno o ambos deben ajustar su órbita, utilizando su suministro limitado de combustible. Esto plantea la cuestión de quién asume el costo y quién toma la decisión.

    El artículo destaca que la situación es aún más complicada con los escombros más pequeños, donde no existe una responsabilidad clara. Un “buen día” es cuando se produce una conjunción entre dos satélites operativos. Un “mal día” es cuando se produce una colisión entre objetos no operativos, creando más escombros.

    El artículo enfatiza que la composición de los satélites suele ser propietaria, lo que dificulta la evaluación del daño potencial de un impacto. Esto se complica aún más con las mega-constelaciones, donde un solo mal funcionamiento podría requerir que cientos de satélites maniobren, lo que podría llevar a más conjunciones.

    Expertos en escombros espaciales como Reddy no están en contra de que las empresas de satélites ganen dinero en el espacio. Sin embargo, quieren que estas empresas tomen más iniciativa en la creación de normas y directrices en torno a la prevención de colisiones. Creen que está en el interés financiero de las empresas establecer un conjunto de reglas.

    El artículo sugiere que SpaceX, con su amplia experiencia en la gestión de una mega-constelación, podría asumir un papel de liderazgo en la propuesta de soluciones para gestionar los eventos de conjunción, en lugar de esperar acuerdos internacionales.

    El artículo destaca la importancia de que las empresas de satélites se tomen en serio este problema para evitar los importantes riesgos que plantean las colisiones, especialmente a medida que más empresas lanzan mega-constelaciones. La pregunta de quién tomará medidas cuando ocurran cientos de posibles eventos de conjunción entre diferentes mega-constelaciones sigue sin respuesta.

    El artículo utiliza el casi accidente de 2019 entre un satélite Starlink y un satélite Aeolus de la Agencia Espacial Europea (ESA) como estudio de caso. La ESA tuvo que hacer una corrección de último minuto para evitar una colisión después de que sus intentos de contactar a SpaceX para coordinar el movimiento fracasaron debido a un “error”.

    El artículo enfatiza la falta de un marco legal para tratar las posibles colisiones de satélites, similar al control del tráfico aéreo. Se necesita cooperación internacional para crear leyes exigibles, pero hay poca voluntad internacional para que eso suceda. La última pieza importante de legislación espacial internacional fue el Tratado del Espacio Ultraterrestre de 1967, que no anticipó las operaciones de empresas privadas.

    El artículo concluye describiendo la situación como una “tragedia de los comunes”, donde nadie quiere que el espacio se vuelva inaccesible, pero pocos grupos están dispuestos o son capaces de abordar el problema directamente. Josef Aschbacher, el director general de la ESA, resumió el problema al afirmar que los escombros espaciales son un problema y que tenemos que hacer algo al respecto.

    El creciente número de satélites, impulsado por empresas como Amazon, SpaceX y firmas chinas, está saturando rápidamente la órbita terrestre baja, creando un peligroso riesgo de efecto cascada (síndrome de Kessler) e interfiriendo con las transmisiones satelitales. Si bien facilitan la comunicación vital y el socorro en casos de desastre, la falta de regulaciones internacionales integrales y un marco claro de responsabilidad para el seguimiento de escombros y la prevención de colisiones deja incierto el futuro del acceso al espacio. En última instancia, la cooperación proactiva y el establecimiento de reglas orbitales exigibles son cruciales para prevenir una potencial catástrofe y asegurar la sostenibilidad a largo plazo de la exploración y utilización del espacio.

  • Meta Advierte: Peor Experiencia en Europa por Batalla Regulatoria

    Meta ha advertido que los usuarios europeos podrían experimentar un servicio significativamente degradado en Facebook e Instagram tras una disputa con la Comisión Europea sobre su modelo de datos “consentimiento o pago”. La compañía introdujo este modelo para cumplir con las nuevas regulaciones de datos, pero la Comisión Europea ha dictaminado que viola la Ley de Mercados Digitales (DMA) y ha impuesto una multa de 200 millones de euros.

    Meta se enfrenta a desafíos significativos en Europa debido a decisiones regulatorias que impactan su modelo de negocio. La compañía introdujo recientemente un modelo de “consentimiento o pago”, que exige a los usuarios elegir entre pagar una suscripción mensual o permitir que Meta combine sus datos en Facebook e Instagram. Sin embargo, la Comisión Europea (CE) ha considerado que este modelo no cumple con la Ley de Mercados Digitales (DMA), lo que ha llevado a una multa de 200 millones de euros.

    En consecuencia, Meta anticipa la necesidad de modificar su modelo, lo que advierte podría llevar a una “experiencia de usuario materialmente peor” para los usuarios europeos. Este impacto podría comenzar ya en el tercer trimestre de este año y potencialmente afectar significativamente a su negocio y sus ingresos en Europa. Esta situación pone de relieve la tensión entre las prácticas comerciales de Meta y el entorno regulatorio en Europa, particularmente en lo que respecta a la privacidad de los datos y el consentimiento del usuario.

    Las implicaciones de estos cambios regulatorios se extienden más allá de la experiencia del usuario. El informe de ganancias trimestrales de Meta indica que la compañía espera “un impacto significativo” en su negocio y sus ingresos europeos como resultado de las modificaciones requeridas. Esto subraya lo que está en juego financieramente y el potencial de la DMA para remodelar las operaciones de Meta dentro de la UE.

    La compañía se encuentra actualmente en conversaciones con el organismo de control de datos del Reino Unido, la Oficina del Comisionado de Información, con respecto a un modelo similar para los usuarios del Reino Unido. Esto sugiere que Meta está explorando enfoques alternativos para cumplir con las regulaciones de privacidad de datos en diferentes regiones. Vale la pena señalar que no se espera que los cambios afecten a los usuarios en el Reino Unido, donde no se ha implementado el modelo de suscripción sin publicidad.

    Además, los analistas creen que Meta podría estar posicionándose estratégicamente frente al escrutinio regulatorio. Eric Seufert, analista de Mobile Dev Memo, sugiere que Meta podría estar intentando obtener apoyo público al retratar las regulaciones como perjudiciales para la experiencia del usuario. Cree que Meta quiere volver la opinión pública en contra del régimen regulatorio, que creen que degradará sus ofertas de productos para los residentes de la UE.

    La decisión de la CE se deriva de las preocupaciones sobre el consentimiento del usuario. La comisión ha declarado que el modelo de “consentimiento o pago” de Meta no permite a los usuarios consentir libremente cómo se utilizan sus datos. Esto destaca el problema central en el corazón de la disputa: la libertad de los usuarios para controlar sus datos personales.

    Además de la multa de la DMA, la CE también está evaluando otra opción que Meta introdujo el año pasado, que la compañía afirma que utiliza menos datos personales para la publicidad. Esto indica que Meta está explorando varias estrategias para cumplir con las regulaciones y mantener su flujo de ingresos publicitarios.

    Los desafíos regulatorios no se limitan a Europa. Meta también se enfrenta a un caso en Estados Unidos presentado por la Comisión Federal de Comercio (FTC), que alega que la compañía dirige un monopolio de redes sociales. La FTC afirma que Meta solidificó su monopolio al adquirir Instagram y WhatsApp.

    A pesar de estos obstáculos regulatorios, las ganancias trimestrales recientes de Meta superaron las expectativas de Wall Street. Los resultados mostraron importantes ingresos publicitarios y un aumento del 6% en los usuarios activos diarios. Esto demuestra que Meta continúa teniendo un buen desempeño financiero, incluso en medio de los desafíos regulatorios.

    El enfoque de Meta en la IA también es evidente. La compañía promocionó sus herramientas de IA, con Meta AI teniendo casi 1.000 millones de usuarios activos mensuales. Mark Zuckerberg, fundador y CEO de Meta, declaró que la compañía está logrando un buen progreso en las gafas de IA y Meta AI.

    En conclusión, Meta está navegando por un complejo panorama regulatorio, particularmente en Europa, donde la DMA está impactando significativamente su modelo de negocio. Si bien se enfrenta a multas y posibles impactos en los ingresos, la compañía también se está enfocando en la IA y demostrando un fuerte desempeño financiero. La situación subraya la creciente tensión entre los gigantes tecnológicos y los reguladores de todo el mundo, así como el panorama en evolución de la privacidad de los datos y el consentimiento del usuario.

    Meta advierte que usuarios europeos podrían sufrir un servicio degradado y un impacto en ingresos debido a regulaciones de la UE que desafían su modelo de “consentimiento o pago”, lo que podría generar rechazo a la normativa. A pesar de esto, las ganancias de Meta superaron las expectativas, impulsadas por fuertes ingresos publicitarios y avances en IA, destacando la compleja interacción entre innovación, regulación y experiencia del usuario.

  • Microsoft desafía expectativas de contraseñas: usuarios vulnerables

    Microsoft ha revelado una característica sorprendente y potencialmente arriesgada en el Protocolo de Escritorio Remoto (RDP) de Windows, que permite el acceso a computadoras incluso después de que un usuario haya cambiado su contraseña. RDP permite el inicio de sesión y control remotos de una máquina, y esta elección de diseño, destinada a evitar que los usuarios queden bloqueados, significa que las contraseñas antiguas pueden seguir funcionando, incluso después de un cambio, dejando a muchos usuarios vulnerables.

    Microsoft ha tomado una decisión controvertida con respecto a su Protocolo de Escritorio Remoto (RDP) en Windows, una decisión que ha generado preocupación entre los expertos en seguridad. Específicamente, la compañía ha optado por mantener un diseño que permite a los usuarios iniciar sesión en máquinas utilizando contraseñas revocadas, incluso después de que hayan sido cambiadas.

    Este comportamiento aparentemente contradictorio proviene del objetivo declarado de Microsoft de evitar que los usuarios queden bloqueados fuera de sus sistemas. Según Microsoft, este diseño asegura que al menos una cuenta de usuario siempre conserve la capacidad de iniciar sesión, independientemente del tiempo que un sistema haya estado fuera de línea. Esta es una elección de diseño deliberada, no un error, según la compañía.

    Sin embargo, esta elección de diseño contradice directamente la expectativa común de que cambiar una contraseña revoca inmediatamente el acceso utilizando las credenciales antiguas. Como señaló el investigador de seguridad Daniel Wade en su informe al Centro de Respuesta de Seguridad de Microsoft, este comportamiento socava una práctica de seguridad fundamental. “La gente confía en que cambiar su contraseña cortará el acceso no autorizado”, escribió Wade, enfatizando el papel crítico de los cambios de contraseña en la mitigación de las brechas de seguridad.

    El informe de Wade proporcionó instrucciones detalladas para reproducir el comportamiento, destacando la facilidad con la que las contraseñas antiguas aún se pueden usar para acceder a un sistema a través de RDP. Además, subrayó la gravedad del problema al señalar que esto elude medidas de seguridad críticas.

    Las implicaciones de este diseño son de gran alcance. El informe de Wade destacó varios aspectos preocupantes de este comportamiento. Primero, las credenciales antiguas continúan funcionando para RDP incluso desde máquinas nuevas. Segundo, las herramientas de seguridad como Defender, Entra ID y Azure no marcan este comportamiento inusual. Tercero, no existe un método claro para que los usuarios finales detecten o rectifiquen este problema. Finalmente, la documentación de Microsoft no ofrece orientación directa sobre este escenario.

    Las consecuencias de esta elección de diseño son significativas. Millones de usuarios, incluidos los de casa, en pequeñas empresas y en entornos de trabajo híbridos, están expuestos sin saberlo a posibles riesgos de seguridad. Esta vulnerabilidad podría permitir que personas no autorizadas obtengan acceso a datos y sistemas confidenciales, incluso después de que un usuario haya tomado la medida aparentemente segura de cambiar su contraseña.

    La falta de una solución o incluso el reconocimiento del problema por parte de Microsoft es particularmente preocupante. La postura de la compañía de que este comportamiento no es una vulnerabilidad de seguridad, y por lo tanto no se abordará, ha provocado críticas de los profesionales de la seguridad. Esta decisión deja a los usuarios vulnerables y contradice los principios fundamentales de la seguridad de las contraseñas.

    En esencia, el diseño de Microsoft prioriza la accesibilidad sobre la revocación inmediata de las credenciales comprometidas. Si bien la intención puede ser prevenir los bloqueos de usuarios, la consecuencia no deseada es un riesgo de seguridad significativo que podría conducir al acceso no autorizado y a las filtraciones de datos. La falta de una solución clara o incluso una advertencia de Microsoft deja a los usuarios en una posición precaria, sin saber las posibles vulnerabilidades dentro de sus sistemas.

    El Protocolo de Escritorio Remoto (RDP) de Microsoft sigue permitiendo inicios de sesión con contraseñas revocadas, una decisión de diseño que, aunque previene bloqueos, crea un riesgo de seguridad importante. El investigador de seguridad Daniel Wade destacó esta falla, señalando que socava la confianza del usuario y deja a millones vulnerables, pero Microsoft considera que no es una vulnerabilidad y no la solucionará.

    Considere revisar las prácticas de seguridad RDP de su organización y explorar soluciones de acceso remoto más seguras.