Category: Innovation and Technology

Innovation

  • El iPhone de $30,000 y la Fantasía Manufacturera Americana

    La idea de un iPhone fabricado en Estados Unidos se ha convertido en un tema político recurrente, que simboliza el retorno de la manufactura estadounidense. Sin embargo, la realidad de crear un iPhone “Hecho en EE. UU.” es mucho más compleja, involucrando una cadena de suministro global intrincada y planteando interrogantes sobre la viabilidad y el costo.

    El Secretario de Comercio de los Estados Unidos, Howard Lutnick, presentó recientemente una visión de iPhones fabricados en el país, sugiriendo un resurgimiento de empleos manufactureros estadounidenses. Describió un futuro donde las fábricas automatizadas reemplazarían la mano de obra manual, creando roles para mecánicos, especialistas en HVAC y electricistas, un impulso significativo para los estadounidenses con educación secundaria. Esta visión, compartida en Face the Nation de CBS, pinta un panorama de fábricas de alta tecnología que regresan a los Estados Unidos, alterando fundamentalmente el panorama manufacturero actual.

    El concepto de un iPhone “Made-in-the-USA” ha sido durante mucho tiempo una aspiración política, sirviendo como un punto de referencia simbólico para la reactivación de la manufactura estadounidense. Sin embargo, lograr este objetivo está lejos de ser una tarea sencilla. Requeriría una reestructuración monumental de las intrincadas cadenas de suministro globales que son actualmente esenciales para la producción del iPhone. Esta complejidad a menudo se subestima en el discurso político, lo que lleva a una desconexión entre el resultado deseado y las realidades prácticas de la manufactura.

    Los intentos de cuantificar el costo de un iPhone hecho en Estados Unidos resaltan las importantes implicaciones económicas. Contenido viral reciente, incluida una respuesta de Quora de 2018 que sugiere un asombroso precio de $30,000 y una historia de Reuters que estima $2,300 con aranceles, subraya el posible impacto financiero. Si bien estas cifras pueden variar, apuntan consistentemente a un aumento sustancial en el costo del dispositivo si la manufactura se trasladara a los Estados Unidos.

    Sin embargo, estas estimaciones de costos, aunque ilustrativas, se basan en un escenario hipotético que no es inmediatamente factible. La idea de que Apple cambie instantáneamente la producción del iPhone a los EE. UU. es poco realista. Si bien el ensamblaje podría ser teóricamente posible a corto plazo, incluso eso sería una empresa de varios años. El desafío se ve agravado por la posibilidad de que numerosas empresas intenten la relocalización simultáneamente, como se prevé en ciertos ideales políticos. Esto podría provocar interrupciones generalizadas en la cadena de suministro, dificultades en la construcción de fábricas y exacerbar la escasez existente de mano de obra cualificada en la manufactura de alta tecnología dentro de los EE. UU.

    De cara al futuro, existe la posibilidad de que las consideraciones estratégicas y de seguridad nacional impulsen una tendencia a largo plazo hacia la relocalización de más manufactura tecnológica a los Estados Unidos. Sin embargo, en el ínterin, la implementación de aranceles masivos, un posible catalizador de tal cambio, probablemente infligirá un dolor económico significativo. No se espera que este dolor sea de corta duración, sino que podría persistir durante años, impactando a las empresas y a los consumidores por igual a medida que la cadena de suministro global se ajusta.

    La realidad de la producción del iPhone es que es inherentemente un producto internacional, independientemente de dónde se ensamble. Sus componentes provienen de fabricantes de todo el mundo, y las materias primas se extraen de docenas de países diferentes. Apple ha desarrollado una de las cadenas de suministro más complejas de la historia de la humanidad, un sistema profundamente integrado que no se puede desmantelar y reconstruir fácil o rápidamente en un solo lugar.

    La transparencia de la propia Apple proporciona información sobre el estado actual de su manufactura. Los informes anuales detallan los requisitos de la cadena de suministro y la fuerza laboral de la empresa, ofreciendo una imagen clara de sus operaciones globales. Como se indica en la página de inicio del sitio web de la cadena de suministro de Apple, el iPhone está “Diseñado por Apple en California. Hecho por personas de todas partes”, un reconocimiento simple pero poderoso de la colaboración internacional que hace posible el dispositivo.

    La idea de un iPhone “Hecho en EE. UU.”, aunque políticamente atractiva, es una fantasía logística. Reestructurar las cadenas de suministro globales para trasladar por completo la producción del iPhone a EE. UU. sería increíblemente costoso y complejo, lo que podría generar años de dificultades económicas. El iPhone es inherentemente un producto internacional, dependiente de componentes y materiales de todo el mundo, una realidad que es poco probable que cambie drásticamente en el corto plazo.

  • Lobo Gigante “De-Extinción”: Biotecnología Logra Primer Éxito

    La empresa de biotecnología Colossal anunció recientemente lo que considera un avance: la “desextinción” del lobo gigante, un gran depredador que se extinguió hace miles de años. La compañía ha creado animales que se asemejan a lobos gigantes mediante la edición de los genomas de lobos grises, lo que ha generado tanto entusiasmo como preguntas sobre el proceso y su verdadero éxito. Para comprender este anuncio, es necesario saber que los lobos gigantes son distintos de los lobos grises modernos, habiendo evolucionado por separado durante más de 2.5 millones de años.

    La empresa de biotecnología Colossal ha anunciado recientemente lo que considera su primera desextinción exitosa: el lobo terrible. Esta afirmación se centra en la creación de clones de lobos grises con genomas modificados, que la empresa asegura que son esencialmente lobos terribles resucitados. Este anuncio fue coordinado estratégicamente con acceso exclusivo otorgado a publicaciones importantes como Time y The New Yorker, lo que destaca un esfuerzo deliberado de relaciones públicas en torno a esta empresa científica.

    El lobo terrible, un gran depredador que desapareció durante las extinciones del Pleistoceno tardío, es pariente del lobo gris contemporáneo. La evidencia esquelética demuestra claramente distinciones entre las dos especies. El análisis de dos genomas de lobo terrible recientemente secuenciados por los investigadores de Colossal indica una divergencia evolutiva significativa, lo que sitúa a los lobos terribles en una rama separada dentro del árbol genealógico de los cánidos hace más de 2,5 millones de años. Para contextualizar esta separación evolutiva, este período de tiempo es más del doble del período estimado en que los osos pardos y polares han sido especies distintas. Los lobos terribles también eran notablemente grandes, típicamente comparables en tamaño a las poblaciones de lobos grises existentes más grandes, y las comparaciones genómicas sugieren que poseían un pelaje de color claro.

    Dada la sustancial separación evolutiva, es muy probable que existan numerosas diferencias genéticas entre los lobos grises y los lobos terribles. El análisis interno de Colossal, aunque actualmente no publicado, sugirió que las características clave del lobo terrible podrían replicarse editando 14 regiones genómicas diferentes, lo que requería un total de 20 ediciones. Se informa que los animales recién creados han incorporado 15 variantes diseñadas. La discrepancia entre las 20 ediciones planificadas y las 15 implementadas sigue sin estar clara, y un portavoz de Colossal, cuando fue cuestionado por Ars, declaró: “No estamos revelando todas las ediciones que hicimos en este momento”.

    No obstante, la información publicada por la empresa sugiere fuertemente un enfoque principal en la replicación de la apariencia física del lobo terrible, enfatizando específicamente el gran tamaño y un pelaje blanco. Por ejemplo, en lugar de utilizar la variante específica que se encuentra en el genoma del lobo terrible, los investigadores editaron una variante genética conocida por estar presente en poblaciones de lobos grises físicamente grandes para lograr un mayor tamaño. Se empleó una estrategia similar para lograr el color de pelaje claro deseado. Este enfoque se considera cauteloso porque se sabe que estos cambios genéticos específicos son compatibles con el genoma general del lobo gris, minimizando posibles complicaciones imprevistas.

    La empresa biotecnológica Colossal afirma haber “desextinguido” al lobo gigante mediante la creación de clones de lobos grises con genomas editados, enfocándose en tamaño y color del pelaje. Aunque el lobo gigante se separó de los cánidos hace más de 2.5 millones de años, los animales diseñados solo incorporan 15 de las 20 ediciones genéticas inicialmente proyectadas, lo que plantea dudas sobre el alcance de la recreación. Este enfoque cauteloso resalta las complejidades e incertidumbres inherentes a los esfuerzos de desextinción: ¿estamos realmente reviviendo el pasado, o simplemente creando algo nuevo inspirado en él?

  • Agencia “DOGE” de Musk: Hackathon Polémico y Datos del IRS

    El recién formado Departamento de Eficiencia Gubernamental (DOGE) de Elon Musk planea un hackathon en Washington, D.C., centrado en la creación de una única “mega API” para acceder a los datos del IRS (Servicio de Impuestos Internos). Esta iniciativa, que podría involucrar asociaciones con empresas como Palantir, ya ha llevado a recortes significativos en el presupuesto de modernización del IRS y genera preocupación por la centralización y accesibilidad de la información sensible de los contribuyentes.

    El Departamento de Eficiencia Gubernamental (DOGE) de Elon Musk, según informes, está planeando un “hackathon” en Washington, DC, con el ambicioso objetivo de crear una única “mega API” para acceder a los datos del IRS. Esta iniciativa, según informaron fuentes a WIRED, tiene como objetivo construir un puente que permita a diferentes sistemas de software comunicarse e intercambiar datos con el IRS. El concepto de una única API general sugiere un movimiento hacia una mayor interoperabilidad y, potencialmente, un acceso más fácil a la información del IRS para varias plataformas y aplicaciones.

    Fuentes indican que se espera que el IRS colabore con un proveedor externo para gestionar aspectos específicos de este proyecto de datos. Entre los posibles candidatos mencionados consistentemente por los representantes de DOGE se encuentra Palantir, una empresa de software cofundada por Peter Thiel, un multimillonario conocido por su asociación con Elon Musk. La posible participación de Palantir sugiere un enfoque en capacidades sofisticadas de gestión y análisis de datos, lo que se alinea con el alcance potencial de una “mega API” para el IRS.

    Dos figuras clave dentro de DOGE en el IRS, Sam Corcos y Gavin Kliger, son, según informes, fundamentales para organizar este hackathon. Corcos, un CEO de tecnología de la salud con conexiones con SpaceX de Musk, y Kliger, que anteriormente trabajó en la empresa de IA Databricks y se desempeñó como asesor especial en la Oficina de Gestión de Personal (OPM), son descritos como los principales operativos de DOGE que orquestan el evento. Corcos también ocupa un puesto como asesor especial del Secretario del Tesoro Scott Bessent, lo que destaca su importante papel e influencia dentro de los esfuerzos de la administración actual relacionados con la eficiencia gubernamental.

    Desde que se unió al DOGE de Musk, Sam Corcos, según informes, ha abogado por un cambio significativo en el enfoque del IRS hacia la modernización tecnológica. Según fuentes con conocimiento directo que hablaron con WIRED, Corcos ha informado a los trabajadores del IRS de su deseo de detener todo el trabajo de ingeniería actual y cancelar los intentos existentes de modernizar los sistemas de la agencia. Esto sugiere una posible pausa o redirección de las iniciativas tecnológicas en curso dentro del IRS bajo la jurisdicción de DOGE.

    Corcos también ha discutido públicamente algunos de estos recortes propuestos, proporcionando una visión de la escala y el razonamiento detrás de ellos. Como le dijo a Laura Ingraham en Fox News en marzo, “Hasta ahora hemos detenido el trabajo y recortado alrededor de $1.5 mil millones del presupuesto de modernización. Principalmente proyectos que iban a seguir llevándonos a la espiral de la muerte de la complejidad en nuestra base de código”. Esta declaración indica una reducción sustancial en el gasto planificado en modernización y sugiere la creencia de que los proyectos anteriores estaban contribuyendo a una infraestructura tecnológica cada vez más compleja y potencialmente insostenible en el IRS.

    Además, Corcos, según informes, ha discutido planes para que DOGE construya “una nueva API para gobernarlos a todos”, con la intención de hacer que los datos del IRS sean más fácilmente accesibles para las plataformas en la nube. Las API, o interfaces de programación de aplicaciones, son herramientas fundamentales que permiten a diferentes aplicaciones de software compartir datos. La visión de una única API integral sugiere un movimiento hacia la centralización del acceso a los datos del IRS, facilitando potencialmente su migración e integración con sistemas basados en la nube.

    Las posibles implicaciones de esta “mega API” y la integración con las plataformas en la nube son significativas. Una fuente con conocimiento directo dijo a WIRED que la plataforma en la nube podría convertirse en el “centro de lectura de todos los sistemas del IRS”. Esto implica una ubicación centralizada donde todos los datos del IRS podrían potencialmente ser vistos y, fundamentalmente, posiblemente manipulados por cualquier persona con acceso. Esto plantea importantes preguntas sobre la seguridad de los datos, la privacidad y los riesgos potenciales asociados con la consolidación del acceso a información financiera tan sensible. El concepto de un único punto de acceso, si bien podría aumentar la eficiencia, también presenta un objetivo más grande para las amenazas cibernéticas y requiere medidas de seguridad robustas.

    El Departamento de Eficiencia Gubernamental (DOGE) de Elon Musk planea un hackathon para crear una única API para datos del IRS, posiblemente gestionada por Palantir. Dos operativos clave de DOGE, con vínculos con Musk y Thiel, lideran el esfuerzo, abogando por recortes drásticos a los proyectos de modernización existentes del IRS y un “centro de lectura” centralizado para todos los datos del IRS, lo que genera preocupaciones sobre la accesibilidad y la posible manipulación. Es crucial una mayor investigación sobre la influencia de DOGE y las implicaciones del acceso centralizado a los datos para salvaguardar la información de los contribuyentes y garantizar una modernización gubernamental responsable.

  • Gobierno Desecha Cinta, Expertos Dicen No Está Muerta

    La Administración de Servicios Generales de EE. UU. (GSA) eliminó recientemente sus instalaciones de almacenamiento de datos en cinta, una medida promocionada por el Departamento de Eficiencia Gubernamental (DOGE) como un ahorro de $1 millón por año. Sin embargo, esta decisión ha generado debate, ya que muchos señalan que el almacenamiento en cinta sigue siendo una opción viable y, a menudo, ventajosa para diversas necesidades de almacenamiento de datos, incluso frente a las tecnologías más nuevas.

    Un reciente post en redes sociales del Departamento de Eficiencia Gubernamental (DOGE) celebró una medida significativa de ahorro de costos en la Administración de Servicios Generales de EE. UU. (GSA). Según un tuit, el equipo de TI de la GSA eliminó las instalaciones de almacenamiento de datos en cinta, convirtiendo 14,000 cintas magnéticas en “registros digitales modernos permanentes”. Esta medida, según el post, ahorraría un millón de dólares al año. El tuit destacó la antigüedad de la tecnología de cinta magnética, refiriéndose a ella como “tecnología de 70 años para el almacenamiento de información”, lo que implicaba su obsolescencia.

    Sin embargo, este anuncio aparentemente triunfal fue recibido con escepticismo y una Nota de la Comunidad en la plataforma X. Muchos usuarios y las Notas de la Comunidad señalaron que, a pesar de su larga historia, el almacenamiento en cinta sigue siendo una opción viable y, a menudo, superior para diversas necesidades de almacenamiento de datos. Esto sugiere que la suposición del DOGE de que la antigüedad de la tecnología la convierte automáticamente en un objetivo principal para su reemplazo podría ser errónea.

    Contrariamente a la idea de que la cinta es una tecnología obsoleta, el estándar Linear Tape-Open (LTO), que sustenta el almacenamiento moderno en cinta, continúa experimentando un desarrollo robusto. Esta evolución continua ofrece mayores densidades de datos, lo que garantiza que la cinta siga siendo competitiva en términos de capacidad. Además, los dispositivos de almacenamiento en cinta se actualizan regularmente con nuevas interfaces, como el reciente anuncio de los modelos Thunderbolt 5, lo que demuestra la inversión y la innovación continuas en la tecnología.

    El mercado de los medios de cinta también está experimentando un crecimiento, impulsado en parte por las demandas de los hiperescaladores de IA. Empresas como Huawei están desarrollando activamente subsistemas de almacenamiento completamente nuevos construidos en torno a la tecnología de cinta, lo que indica su continua relevancia en la infraestructura de datos de vanguardia. Esto contradice la idea de que la cinta se está eliminando gradualmente en favor de tecnologías más nuevas en todos los ámbitos.

    Más allá de los avances tecnológicos, el almacenamiento en cinta ofrece distintas ventajas en términos de costo e impacto ambiental. Las investigaciones han indicado que el almacenamiento en cinta puede ser más barato y menos contaminante que los HDD y los SSD. Esto desafía la suposición de que los registros digitales modernos son inherentemente más rentables o respetuosos con el medio ambiente en todos los escenarios.

    La existencia y el desarrollo continuos de diversos medios de almacenamiento, incluidas las tarjetas micro-SD, los SSD de consumo, los HDD y la cinta, subrayan el principio de que “una talla no sirve para todos” en las elecciones tecnológicas. Cada tipo de medio de almacenamiento posee fortalezas particulares y un equilibrio único de características que lo hacen adecuado para aplicaciones específicas. Si bien los SSD ofrecen alta velocidad y las tarjetas micro-SD brindan portabilidad, los medios de almacenamiento magnéticos más antiguos como los HDD y la cinta persisten porque sobresalen en áreas como la capacidad, el costo por terabyte y la idoneidad para el archivo a largo plazo.

    En el caso específico de las 14,000 cintas magnéticas de la GSA, las Notas de la Comunidad adjuntas al post del DOGE hacían referencia a artículos que destacaban la continua popularidad de la cinta para las copias de seguridad en organizaciones de todos los tamaños. Estas fuentes enfatizan que se espera que el almacenamiento en cinta siga en uso durante “décadas”. El atractivo duradero de la cinta para copias de seguridad y fines de archivo se atribuye a varios factores clave.

    Estos factores incluyen la inmensa capacidad de la cinta, una hoja de ruta de desarrollo que garantiza su evolución continua, durabilidad conocida con una vida útil estimada de 30 años, bajo consumo de energía en comparación con otros métodos de almacenamiento, un costo total de propiedad (TCO) favorable y su idoneidad para el “almacenamiento en frío”: datos a los que se accede con poca frecuencia pero que deben conservarse durante largos períodos. Estas características hacen que la cinta sea una opción convincente para fines de archivo y copia de seguridad, que pueden haber sido el caso de uso principal de las cintas de la GSA.

    No está claro qué sistema de almacenamiento y medios específicos se eligieron para reemplazar el sistema de cinta de la GSA. Sin esta información, es difícil evaluar completamente la validez del ahorro de $1 millón por año reclamado. Algunos comentaristas especulan que el reemplazo podría implicar el almacenamiento en la nube, como Amazon S3 o Glacier Deep Archive. Sin embargo, como señalaron los usuarios, el costo de transferir potencialmente petabytes de datos a la nube no es trivial, e implica importantes gastos de hardware y mano de obra.

    Además, las soluciones de almacenamiento en la nube a menudo tienen costos de retención continuos, que podrían superar los ahorros de la eliminación del sistema de cinta, especialmente para datos con requisitos de retención a largo plazo. Por ejemplo, AWS Glacier Deep Archive, aunque relativamente económico por terabyte por mes, aún podría ascender a costos anuales sustanciales para grandes volúmenes de datos, superando potencialmente el costo de mantener un archivo de cinta. Los costos de recuperación del almacenamiento en la nube de archivo profundo también pueden ser significativos, lo que lo hace menos adecuado para datos a los que podría ser necesario acceder, incluso con poca frecuencia.

    La posibilidad de que el sistema de reemplazo sea más caro a largo plazo plantea interrogantes sobre si el celebrado ahorro de $1 millón por año realmente se materializará y será sostenible. Algunos comentaristas sugieren que los ahorros podrían estar relacionados con un sistema de cinta más antiguo y menos eficiente, en lugar de que la tecnología de cinta sea inherentemente costosa. Sin embargo, el marco del DOGE de la medida como la eliminación de “tecnología de 70 años” sugiere un enfoque en la edad de la tecnología en lugar de los detalles de la infraestructura de cinta particular de la GSA.

    La discusión en torno a la decisión de la GSA destaca un punto más amplio sobre las transiciones tecnológicas. Si bien “romper el molde” a veces puede conducir a la innovación y la mejora, es crucial tener una comprensión profunda de los sistemas existentes y los requisitos específicos de los datos que se gestionan. Un enfoque revolucionario sin una comprensión completa de los matices de la tecnología que se está reemplazando puede generar costos y complicaciones imprevistos, lo que podría resultar en una solución menos eficiente o más costosa a largo plazo.

    A pesar del anuncio gubernamental sobre la eliminación del almacenamiento en cinta para ahorrar $1 millón anuales, expertos y Community Notes destacan su valor perdurable para el almacenamiento en frío, la durabilidad a largo plazo y la rentabilidad, especialmente frente a alternativas en la nube. La decisión plantea interrogantes sobre el sistema de reemplazo y si los ahorros prometidos se concretarán, subrayando la importancia de considerar diversas soluciones de almacenamiento según las necesidades específicas, en lugar de descartar tecnologías establecidas. Quizás esta situación sirva como recordatorio de que, a veces, “lo antiguo” sigue siendo lo mejor.

  • Facebook: Adiós a Verificadores, Hola a “Notas de la Comunidad”

    Facebook, Instagram y Threads están eliminando gradualmente sus programas de verificación de datos, que datan de hace una década, en Estados Unidos, una medida anunciada a principios de este año por el CEO de Meta, Mark Zuckerberg. El cambio se produce a medida que Meta busca abordar las preocupaciones sobre el sesgo político y está reemplazando el programa con Notas de la Comunidad, un sistema de colaboración masiva similar a la función de Twitter/X.

    Facebook, junto con sus plataformas hermanas Instagram y Threads, está experimentando una transformación significativa al eliminar su programa de verificación de datos en Estados Unidos. Esta medida, anunciada por el jefe de políticas de Meta, Joel Kaplan, marca un cambio con respecto al sistema implementado en 2016 y señala un giro hacia un enfoque de colaboración masiva para combatir la desinformación. El programa de verificación de datos finaliza oficialmente el lunes por la tarde, lo que significa que no se realizarán nuevas verificaciones de datos y se eliminará el personal de verificación de datos.

    En lugar del sistema tradicional de verificación de datos, Meta está adoptando una función similar a las Notas de la Comunidad de Twitter/X. Este nuevo sistema se basa en las contribuciones de los usuarios para proporcionar contexto y correcciones a publicaciones potencialmente engañosas. La transición fue prefigurada en enero cuando el CEO de Meta, Mark Zuckerberg, declaró que los verificadores de datos de terceros se habían vuelto demasiado sesgados políticamente y estaban erosionando la confianza. Argumentó que las Notas de la Comunidad, al requerir el acuerdo de individuos con diversas perspectivas, ayudarían a mitigar el sesgo.

    Meta comenzó a aceptar inscripciones para los contribuyentes de Notas de la Comunidad en febrero, sentando las bases para el lanzamiento. Estas notas de colaboración masiva aparecerán en pequeños cuadros debajo de las publicaciones, etiquetadas como “Lectores agregaron contexto”. Las notas están limitadas a 500 palabras y están destinadas a abordar publicaciones que son potencialmente engañosas, confusas o inexactas. Un requisito clave para estas notas es la inclusión de un enlace a fuentes confiables, con el objetivo de proporcionar información verificable.

    El sistema para determinar qué Notas de la Comunidad se publican implica un mecanismo de calificación. Los contribuyentes pueden calificar las notas como útiles o inútiles. El algoritmo luego analiza estas calificaciones, buscando específicamente el acuerdo entre los contribuyentes que tienen un historial de calificación diferente. Este mecanismo está diseñado para garantizar que las notas sean respaldadas por una amplia gama de perspectivas antes de ser ampliamente mostradas.

    Para convertirse en un contribuyente de Notas de la Comunidad en Estados Unidos, los usuarios deben cumplir con criterios específicos. Estos incluyen estar basados en Estados Unidos, tener más de 18 años, tener una cuenta que tenga al menos seis meses de antigüedad y que esté en buen estado, y tener un número de teléfono verificado o la autenticación de dos factores habilitada. Es probable que estos requisitos estén en vigor para garantizar un nivel de legitimidad y responsabilidad entre los contribuyentes.

    Si bien el programa de verificación de datos está terminando, la aparición de Notas de la Comunidad en publicaciones públicas aún no se ha observado ampliamente. Sin embargo, la terminación oficial del programa de verificación de datos sugiere fuertemente que el lanzamiento de las Notas de la Comunidad es inminente. El futuro de las Notas de la Comunidad fuera de Estados Unidos sigue sin estar claro, y algunos países y la Unión Europea ya han expresado su preocupación por este cambio, lo que destaca las posibles implicaciones internacionales.

    La decisión de finalizar el programa de verificación de datos es vista por algunos como parte de un esfuerzo más amplio de Zuckerberg para apaciguar al expresidente Donald Trump. Esta medida coincide con otros cambios de política en Meta, incluida la eliminación de restricciones sobre temas como la inmigración y el género, y la terminación de sus programas de Diversidad, Equidad e Inclusión (DEI). Estos cambios sugieren colectivamente un cambio en el enfoque de Meta hacia la moderación de contenido y la gobernanza de la plataforma.

    Meta finalizará su programa de verificación de datos en Facebook, Instagram y Threads en EE. UU., reemplazándolo por el sistema de notas de la comunidad, similar a Twitter/X. Este cambio, anunciado por Zuckerberg y motivado por preocupaciones sobre sesgos políticos, busca incorporar diversas perspectivas mediante notas calificadas por usuarios, aunque sus implicaciones globales y efectividad son inciertas, especialmente ante inquietudes internacionales. ¿Este nuevo sistema realmente fomentará un entorno informativo más equilibrado y confiable, o simplemente amplificará las divisiones existentes?

  • AMD Rompe Récord de Simulación CFD con Avance GPU

    AMD ha logrado un hito significativo en la supercomputación, acelerando dramáticamente las simulaciones de dinámica de fluidos computacional (CFD) utilizando sus GPUs Instinct MI250X. En una prueba reciente en la supercomputadora Frontier, una simulación compleja para Baker Hughes se completó más de 25 veces más rápido que antes con métodos tradicionales basados en CPU, demostrando el potencial del hardware de AMD en la computación de alto rendimiento.

    AMD ha logrado un hito significativo en la supercomputación, estableciendo un nuevo récord en una simulación de dinámica de fluidos computacional (CFD). Este logro destaca el poder y la eficiencia del hardware de AMD para abordar desafíos científicos y de ingeniería complejos. La simulación, centrada en una turbina axial de 2.200 millones de celdas para Baker Hughes, se aceleró dramáticamente en la supercomputadora Frontier en el Laboratorio Nacional Oak Ridge (ORNL).

    El núcleo de este rendimiento récord reside en la utilización de las GPU Instinct MI250X de AMD junto con las CPU EPYC. Anteriormente, esta simulación específica requería unas considerables 38,5 horas para completarse cuando se ejecutaba en 3.700 núcleos de CPU. Al aprovechar 1.024 aceleradores Instinct MI250X junto con procesadores EPYC en Frontier, el tiempo de simulación se redujo drásticamente a tan solo 1,5 horas. Esto representa una notable aceleración de más de 25 veces, lo que permite a Baker Hughes iterar en sus diseños de turbinas de gas con una velocidad y eficiencia sin precedentes.

    Este logro subraya el papel prominente de AMD en el panorama de la computación de alto rendimiento (HPC). La supercomputadora Frontier, que albergó esta simulación, fue reconocida anteriormente como la más rápida del mundo y la primera en lograr un rendimiento exaescala. Si bien El Capitan ha superado desde entonces el récord de velocidad de Frontier, ambos sistemas están impulsados por GPU de AMD, lo que demuestra el dominio de la compañía en proporcionar la tecnología fundamental para las supercomputadoras más potentes a nivel mundial. La propia Frontier cuenta con una impresionante configuración de 9.408 procesadores AMD EPYC y 37.632 aceleradores AMD Instinct MI250X, mientras que El Capitan utiliza 44.544 aceleradores AMD Instinct MI300A.

    Curiosamente, la simulación CFD Ansys Fluent solo utilizó una fracción de la capacidad total de Frontier, empleando 1.024 de los 37.632 aceleradores Instinct MI250X disponibles. Esto sugiere que existe el potencial de tiempos de simulación aún más rápidos si el software se puede optimizar aún más para utilizar una porción mayor de los recursos de la supercomputadora. Esto también sirve como una demostración convincente de que, a pesar de la importante cuota de mercado de Nvidia en las GPU de IA, AMD sigue siendo un competidor formidable, que proporciona la potencia de procesamiento para algunas de las tareas computacionales más exigentes del mundo.

    Brad McCredie, vicepresidente senior de ingeniería de centros de datos de AMD, enfatizó la importancia de esta colaboración, afirmando: “Al escalar el software de simulación CFD de alta fidelidad a niveles sin precedentes con la potencia de las GPU AMD Instinct, esta colaboración demuestra cómo la supercomputación de vanguardia puede resolver algunos de los desafíos de ingeniería más difíciles, lo que permite avances en eficiencia, sostenibilidad e innovación”. Su declaración destaca el impacto más amplio de tales avances en la aceleración del progreso en diversas industrias.

    Sin embargo, a pesar de la capacidad de AMD para ofrecer un rendimiento de primer nivel, a menudo a un precio más competitivo que Nvidia, la compañía enfrenta desafíos en el mercado de centros de datos de IA, principalmente relacionados con el soporte de software y la estabilidad de los controladores. Este es un factor crítico que influye en la adopción por parte de los clientes, como lo destaca la experiencia de Tiny Corp con su sistema TinyBox.

    Tiny Corp encontró importantes problemas de inestabilidad con las tarjetas gráficas AMD Radeon RX 7900 XTX en su diseño inicial de TinyBox. Este problema fue lo suficientemente grave como para justificar la intervención de la Dra. Lisa Su, directora ejecutiva de AMD. Incluso después de supuestas correcciones, Tiny Corp finalmente lanzó dos versiones de su acelerador de IA TinyBox: una impulsada por AMD y otra por Nvidia. En particular, la compañía recomendó la versión Nvidia, más cara, equipada con seis GPU RTX 4090, citando una calidad de controlador superior como la razón principal. Este ejemplo subraya la importancia de un soporte de software robusto y confiable para ganar tracción en el competitivo mercado de hardware de IA.

    Por lo tanto, si AMD puede abordar y mejorar eficazmente el soporte de software para su hardware de alto rendimiento, tiene el potencial de atraer a una gama más amplia de clientes y lograr una posición competitiva más equilibrada con Nvidia en el mercado de GPU de IA. Fortalecer su ecosistema de software es crucial para que AMD aproveche al máximo las capacidades de sus procesadores y aceleradores y expanda su presencia en los sectores de IA y HPC de rápido crecimiento.

    AMD logró una aceleración sin precedentes de 25x en una compleja simulación CFD en la supercomputadora Frontier utilizando sus GPUs Instinct MI250X, demostrando su poder en computación científica. Aunque el hardware de AMD destaca en rendimiento y precio, los problemas de software y controladores continúan obstaculizando una adopción más amplia en el mercado de IA, especialmente en comparación con Nvidia. Abordar estos desafíos de software podría desbloquear todo el potencial de AMD y nivelar el campo de juego.

  • MicroLED: La tecnología que podría destronar a OLED y LCD

    MicroLED ha sido aclamada como la tecnología de visualización definitiva, combinando los mejores aspectos de OLED y mini-LED. Sin embargo, actualmente se limita a televisores muy grandes y extremadamente caros. ¿Pero qué pasaría si eso pudiera cambiar? Hablé con el Dr. Reaz Chaji, cofundador y director ejecutivo de VueReal Industries, sobre un posible avance en la fabricación que podría hacer que las pantallas microLED fueran más asequibles y accesibles.

    La tecnología microLED se posiciona actualmente como el pináculo de la tecnología de visualización, elogiada por los fabricantes y las marcas premium por su capacidad para combinar los niveles de negro profundos característicos de OLED con el brillo superior de mini-LED. Sin embargo, su adopción generalizada en los mercados de consumo sigue siendo limitada. Esto se debe principalmente al costo exorbitante y al gran tamaño de las pantallas microLED existentes, que suelen superar los $100,000 y las 100 pulgadas, lo que restringe su atractivo a un público muy específico. A pesar de años de anticipación por opciones más asequibles, el mercado aún no ha visto un cambio significativo en este sentido.

    Si bien el panorama actual está dominado por pantallas microLED grandes y costosas, los desarrollos recientes sugieren un cambio potencial hacia opciones más accesibles. Hisense, una marca conocida por sus precios competitivos en el mercado de televisores, anunció sorprendentemente modelos microLED en el CES 2025. Sin embargo, estos aún se presentaron en formatos grandes (136 y 163 pulgadas) y sin precios confirmados. Dado el costo del televisor mini-LED de alta gama de Hisense, el 110UX, que se vende por $15,000 / £19,999, es razonable anticipar que estos nuevos conjuntos microLED también tendrán un precio sustancial, lo que refuerza la tendencia actual de que microLED sea un artículo de lujo.

    La posibilidad de que microLED se vuelva asequible y adecuado para habitaciones de tamaño estándar, como las que albergan un televisor de 65 pulgadas, es una perspectiva convincente. Esta posible transición está siendo explorada por empresas como VueReal industries, como se destaca en una conversación con su cofundador y director ejecutivo, el Dr. Reaz Chaji. VueReal, con sede en Waterloo, Canadá, es una empresa de fabricación especializada en soluciones de microtecnología innovadoras, y su trabajo ofrece una visión de cómo el proceso de fabricación de microLED podría revolucionarse para reducir costos y permitir factores de forma más pequeños.

    El Dr. Chaji, que tiene experiencia en tecnología OLED e incluso desarrolló una solución con licencia de LG para sus televisores OLED, se sintió atraído por microLED debido a su potencial más allá de las simples aplicaciones de visualización. Ve que microLED permite “superficies multifuncionales”, una capacidad que cree que supera las limitaciones de OLED, que es principalmente “solo para visualización”. Este potencial más amplio alimenta aún más el impulso para hacer que la tecnología microLED sea más accesible.

    Un obstáculo importante para hacer que microLED sea asequible radica en su proceso de fabricación inherentemente complejo y costoso. El método actual implica ensamblar microLED en mosaicos para crear pantallas grandes. Si bien es eficaz para pantallas masivas, el uso de este enfoque de mosaicos para pantallas más pequeñas, como un televisor de 65 pulgadas, daría como resultado costuras visibles entre los mosaicos, creando una pantalla estéticamente poco atractiva. Esta limitación ha sido una barrera importante para reducir la tecnología microLED para el mercado de consumo.

    El proceso de impresión MicroSolid de VueReal ofrece una solución potencial a este desafío de fabricación. El Dr. Chaji y su equipo han desarrollado una técnica en la que los semiconductores, incluidos los microLED, se pueden cargar en cartuchos e imprimir directamente en la superficie de la pantalla. Este novedoso enfoque elimina la necesidad de mosaicos y los problemas asociados con las costuras en pantallas más pequeñas. Además, una ventaja clave de este sistema basado en cartuchos es la capacidad de inspeccionar los defectos, la uniformidad y el rendimiento *antes* del proceso de impresión. Como explica el Dr. Chaji, “Debido a que construimos el cartucho por adelantado, podemos inspeccionar los defectos, la uniformidad, el rendimiento, y puede ayudarnos a mejorar significativamente el rendimiento de la pantalla”.

    Esta capacidad de preinspección es un factor crítico para reducir el desperdicio y el costo de fabricación. En la producción actual de LED, OLED y microLED, si se encuentra un defecto en la superficie de una pantalla, a menudo se descarta toda la pieza, lo que aumenta significativamente los gastos de producción. La tecnología de visualización Quantum Vue de VueReal, que combina su técnica de impresión MicroSolid con el modelado Quantum, tiene como objetivo proporcionar un método altamente eficiente y rentable para crear pantallas microLED con menos desperdicio, lo que lleva a un mayor rendimiento de pantallas listas para la producción, según el Dr. Chaji.

    El potencial de microLED más asequibles plantea preguntas sobre el futuro de las tecnologías de visualización existentes como OLED y LCD. Si bien los mejores televisores OLED son actualmente populares debido a sus píxeles autoemisivos que ofrecen negros profundos y colores precisos, y los mejores televisores mini-LED ofrecen un mayor brillo, el Dr. Chaji confía en que microLED más asequibles abarcarán las fortalezas de ambos. Predice audazmente: “OLED y LCD desaparecerán. No podrán hacer la funcionalidad que necesita el dispositivo”, etiquetando a microLED como “una solución única que es a prueba de futuro”.

    Si bien el Dr. Chaji reconoce que quedan desafíos, particularmente dentro del ecosistema más amplio y la cadena de producción que contribuyen a los costos, cree que estos obstáculos se pueden superar. Es optimista en cuanto a que la producción de microLED utilizando las técnicas MicroSolid Printing y Quantum Vue de VueReal eventualmente será viable para pantallas más pequeñas. Cuando se le preguntó específicamente sobre la posibilidad de ver esta tecnología en televisores de 65 pulgadas, el Dr. Chaji respondió con confianza: “Absolutamente”. Además, profundizó en la versatilidad de su proceso, afirmando: “Con el proceso que hemos desarrollado, [nuestra] impresión MicroSolid con nuestra tecnología Quantum Vue, en realidad podemos incluso no solo [atender] a televisores, sino que también podemos ir a monitores o tabletas o pantallas de portátiles”.

    Aunque aún no se ha confirmado un cronograma concreto para la llegada de televisores microLED más pequeños y asequibles, la conversación con el Dr. Chaji sugiere que la tecnología central está en su lugar. El enfoque principal ahora parece ser abordar los desafíos dentro del ecosistema más amplio. Si estos desafíos se pueden superar con éxito, la perspectiva de ver televisores microLED más pequeños y asequibles en un futuro cercano se convierte en una posibilidad distinta, lo que podría remodelar el panorama de las pantallas de consumo.

    La tecnología MicroSolid Printing y Quantum Vue de VueReal presenta una prometedora vía para pantallas microLED más asequibles y pequeñas, con el potencial de revolucionar el mercado de televisores y, eventualmente, hacer obsoletas las tecnologías OLED y LCD. Aunque el cronograma concreto aún es incierto, se están sentando las bases para que los microLED aparezcan en televisores de 65 pulgadas y más, expandiendo sus aplicaciones a monitores, tabletas y laptops.

  • YouTube Restringe Videos de Balatro: Creador Denuncia Hipocresía

    YouTube ha comenzado a restringir por edad videos sobre el juego de cartas Balatro, citando contenido presuntamente relacionado con el juego de azar, una medida que ha frustrado al creador LocalThunk y a otros canales centrados en Balatro. Las restricciones se derivan de un reciente cambio en la política de YouTube destinado a frenar las representaciones de casinos en línea, pero muchos creen que Balatro está siendo injustamente afectado debido a sus mecánicas de construcción de mazos y su estética inspirada en los casinos.

    La reciente decisión de YouTube de restringir por edad los videos que presentan el juego Balatro ha generado una frustración significativa entre los creadores y el desarrollador del juego, LocalThunk. Esta acción se deriva de una nueva política de YouTube implementada el 19 de marzo, que se dirige a “representaciones o promociones de sitios o aplicaciones de casinos en línea”. Si bien parece una medida razonable para proteger a los espectadores más jóvenes, la aplicación de esta política a Balatro está siendo ampliamente criticada como una caracterización errónea de la naturaleza del juego. Balatro, un roguelike de construcción de mazos, utiliza una baraja estándar de 52 cartas e incorpora estética similar a la de un casino, pero es fundamentalmente un juego de estrategia para un solo jugador con elementos de azar, no una plataforma de apuestas en línea.

    El impacto de la restricción de edad en los videos de YouTube es severo, actuando efectivamente como una “sentencia de muerte” para la visibilidad de un video. Cuando un video está restringido por edad, es significativamente menos probable que sea recomendado por el algoritmo de YouTube, reduciendo drásticamente su alcance y número de espectadores potenciales. Este problema no es exclusivo del contenido de Balatro; los creadores han informado con frecuencia que videos aparentemente inocuos han sido restringidos por edad sin una explicación clara ni un recurso efectivo para apelar. Un ejemplo notable citado es el historiador de speedrunning Summoning Salt, quien se encontró con este problema con un video sobre el juego clásico Mega Man, lo que resalta un problema más amplio con los sistemas automatizados de moderación de contenido de YouTube.

    El núcleo de la frustración reside en la percibida ignorancia voluntaria del sistema de YouTube al clasificar Balatro. El juego no es un casino o aplicación en línea, ni promueve el juego de la manera que la nueva política pretende abordar. Su uso de una baraja de cartas estándar y elementos visuales lúdicos con temática de casino parece ser el principal detonante de las restricciones de edad, probablemente atrapándolo en una red algorítmica diseñada para marcar contenido relacionado con el juego. Esta situación refleja una lucha anterior que Balatro enfrentó con la junta de clasificación europea PEGI, que inicialmente insistió en una clasificación de 18+ antes de finalmente ceder. Sin embargo, la naturaleza opaca y altamente automatizada de la moderación de YouTube hace que una resolución similar sea menos probable.

    Balatro University, un canal de YouTube dedicado al juego, ha sido particularmente vocal sobre su experiencia, detallando cómo solo una fracción de sus videos han sido restringidos por edad, lo que destaca la aplicación inconsistente de las nuevas reglas. También han descrito el proceso desafiante y a menudo inútil de apelar estas restricciones, enfatizando la dificultad de comunicarse con una persona real en YouTube para recibir una explicación o resolución personalizada. Este “recorrido kafkiano” exacerba aún más la frustración que sienten los creadores cuyo contenido está siendo penalizado injustamente.

    LocalThunk, el creador de Balatro, ha expresado públicamente su molestia por la continua caracterización errónea de su juego. En un comentario mordaz en Bluesky, comentó sarcásticamente: “Qué bueno que estamos protegiendo a los niños de saber qué es un póker y permitiéndoles ver videos de apertura de cajas de CS en su lugar”. Esta declaración establece una comparación directa entre la restricción de edad de los videos de Balatro y el contenido fácilmente disponible en YouTube que presenta la mini-economía adyacente al juego que rodea las skins de armas de Counter-Strike, destacando lo que considera un doble rasero y un enfoque equivocado en proteger a los niños de contenido inofensivo mientras se permite que contenido potencialmente más problemático permanezca accesible.

    Esta situación con Balatro es vista por algunos como parte de una tendencia más amplia hacia una moderación de contenido más estricta y, a menudo, contundente en línea. El autor del artículo, reflexionando sobre su propia experiencia al crecer con el internet menos regulado de principios de la década de 2000, sugiere que esta “nueva ola de moderación de contenido draconiana y torpe de ‘¿no pensará alguien en los niños?’” plantea una amenaza significativa para el concepto de un internet abierto y utilizable. Trazan un paralelismo con la proliferación de leyes de verificación de identidad en ciertos estados de EE. UU., sugiriendo un cambio social más amplio hacia un mayor control y restricción del contenido en línea, a menudo bajo la apariencia de proteger a las poblaciones vulnerables.

    La aplicación de las nuevas restricciones de YouTube sobre contenido relacionado con apuestas perjudica injustamente a los videos de Balatro, a pesar de que el juego no es un casino en línea. Este alcance algorítmico excesivo, junto con un proceso de apelación frustrante, amenaza la accesibilidad abierta a Internet y destaca una tendencia preocupante de moderación de contenido excesivamente cautelosa, ejemplificada por problemas similares con las clasificaciones PEGI y las leyes de verificación de identidad.

  • Reino Unido y EE. UU. Logran Avance Hipersónico

    El Reino Unido y Estados Unidos han logrado un hito significativo en el desarrollo de armas hipersónicas, alcanzando un momento histórico tras un exitoso programa de pruebas importante. Las armas hipersónicas son capaces de viajar a varios miles de millas por hora, significativamente más rápido que los misiles convencionales, y esta investigación tiene como objetivo proporcionar a las fuerzas armadas del Reino Unido una ventaja operativa transformadora. Las pruebas recientes, un esfuerzo de colaboración entre los gobiernos del Reino Unido y Estados Unidos, socios de la industria y laboratorios de investigación, representan un paso crucial hacia adelante en las capacidades hipersónicas del Reino Unido y contribuyen a la colaboración AUKUS para el desarrollo de armas hipersónicas.

    El Reino Unido y los Estados Unidos han logrado un avance significativo en el desarrollo de armas hipersónicas, marcando un hito importante en sus esfuerzos de investigación colaborativos. Este avance se centra en la finalización exitosa de un extenso programa de pruebas para un sistema de propulsión hipersónica. Este sistema está diseñado para impulsar armas a velocidades que alcanzan varios miles de millas por hora, una capacidad que podría alterar fundamentalmente el panorama de la guerra moderna.

    El núcleo de este logro radica en la ejecución exitosa de 233 pruebas estáticas del sistema de propulsión hipersónica. Estas pruebas se llevaron a cabo en el Centro de Investigación Langley de la NASA en Virginia, EE. UU., durante un período de seis semanas. Las rigurosas pruebas cubrieron el rango completo de números Mach de vuelo, desde velocidades supersónicas hasta hipersónicas, proporcionando datos cruciales sobre el rendimiento y la robustez del sistema. Este extenso análisis de datos en tiempo real permitió el refinamiento de los aspectos de diseño y un aumento significativo del rendimiento propulsivo, demostrando la preparación del motor para futuras actualizaciones del diseño del sistema.

    Esta investigación es un componente clave del Programa de Armas Hipersónicas del Reino Unido, con el ambicioso objetivo de entregar un demostrador de tecnología de armas hipersónicas para 2030. Se prevé que este demostrador proporcione una “capacidad transformadora” para las futuras fuerzas armadas del Reino Unido, ofreciendo una ventaja operativa significativa. El desarrollo de armas tan avanzadas se alinea con el enfoque del gobierno del Reino Unido en la seguridad nacional como base de su “Plan para el Cambio”, subrayado además por el reciente anuncio del mayor aumento sostenido en el gasto de defensa desde el final de la Guerra Fría.

    El éxito de este programa de pruebas es el resultado directo de la estrecha colaboración entre el gobierno del Reino Unido, la industria y el gobierno de los Estados Unidos. Un equipo conjunto, liderado por el Laboratorio de Ciencia y Tecnología de Defensa del Reino Unido (Dstl) y el Laboratorio de Investigación de la Fuerza Aérea de EE. UU. (AFRL), encabezó el esfuerzo. Los socios de la industria, incluida la PYME del Reino Unido Gas Dynamics Ltd, desempeñaron un papel de apoyo vital. Este modelo colaborativo destaca la importancia de las asociaciones internacionales para superar los límites de la tecnología de defensa.

    El sistema de propulsión probado está específicamente destinado a impulsar un concepto de misil de crucero hipersónico de vanguardia. La demostración exitosa del rendimiento del motor de combustión de aire de alta velocidad es particularmente significativa. A diferencia de los cohetes convencionales, un motor de combustión de aire utiliza la atmósfera circundante para la combustión, lo que permite mayores alcances. Esta capacidad es crucial para desarrollar armas hipersónicas que puedan atacar objetivos a grandes distancias con una velocidad y precisión sin precedentes, avanzando significativamente las capacidades de armas hipersónicas del Reino Unido.

    El Secretario de Defensa John Healey MP enfatizó la importancia de este hito en el contexto de un mundo más peligroso. Declaró que “nunca ha sido más importante para nosotros innovar y mantenernos por delante de nuestros adversarios, equipando a nuestras fuerzas con las tecnologías del futuro”. Además, destacó que este logro, apoyado por científicos británicos y pequeñas empresas, demuestra otra área crucial de colaboración con los Estados Unidos para reforzar sus Fuerzas Armadas y fortalecer la disuasión.

    Haciéndose eco de este sentimiento, el director ejecutivo de Dstl, Paul Hollinshead, describió el hito como un “avance crítico en las capacidades de defensa del Reino Unido”. Subrayó que refuerza la posición del Reino Unido en la colaboración de desarrollo de armas hipersónicas AUKUS, un pacto de seguridad trilateral entre Australia, el Reino Unido y los Estados Unidos. El éxito de estas pruebas, según Hollinshead, subraya el compromiso del Reino Unido con el liderazgo tecnológico y la innovación en esta área crucial, lo que indica una clara intención de permanecer a la vanguardia del desarrollo de tecnología hipersónica.

    El Reino Unido y Estados Unidos han logrado un hito significativo en el desarrollo de armas hipersónicas, completando 233 pruebas de propulsión exitosas que allanan el camino para un demostrador de armas hipersónicas para 2030. Este esfuerzo colaborativo, que involucra a científicos del Reino Unido, la Fuerza Aérea de EE. UU. y socios de la industria, marca un paso crucial para reforzar las capacidades de defensa del Reino Unido, fortalecer la disuasión y solidificar el papel del Reino Unido en la colaboración AUKUS, lo que demuestra la acelerada carrera global por la supremacía hipersónica.

  • Más allá del silicio: China crea procesador atómico

    Investigadores en China han creado un procesador RISC-V de 32 bits utilizando disulfuro de molibdeno (MoS2), un material similar al grafeno pero con propiedades semiconductoras. A diferencia del silicio, el MoS2 existe como una lámina extremadamente delgada de una sola capa, y los recientes avances permiten su producción a gran escala, allanando el camino para la electrónica innovadora como este nuevo procesador, apodado RV32-WUJI.

    Investigadores en China han logrado un avance significativo en la tecnología de semiconductores al desarrollar un procesador RISC-V de 32 bits utilizando disulfuro de molibdeno (MoS2) en lugar del silicio tradicional. Este enfoque innovador, detallado en un artículo publicado en Nature, aprovecha las propiedades únicas del MoS2, un material que comparte algunas similitudes con el grafeno pero posee la característica crucial de ser un semiconductor. A diferencia del grafeno, que es un excelente conductor, las propiedades electrónicas del MoS2 lo hacen adecuado para construir transistores, los componentes fundamentales de los procesadores.

    El disulfuro de molibdeno pertenece a una clase de materiales conocidos como materiales 2D, caracterizados por su estructura atómica que se forma en más o menos un solo plano. Si bien el grafeno consiste únicamente en átomos de carbono unidos en una lámina plana, el MoS2 tiene una estructura ligeramente diferente. Los ángulos de sus enlaces químicos están ligeramente fuera del plano, creando un patrón en zig-zag que hace que la lámina sea ligeramente más gruesa que sus átomos constituyentes. Sin embargo, la conclusión clave es que las propiedades electrónicas de estos materiales 2D están intrínsecamente ligadas a la propia estructura molecular, en lugar de surgir de las propiedades a granel de un material más grande.

    Antes del desarrollo de este procesador, el disulfuro de molibdeno ya había demostrado su potencial en varios dispositivos electrónicos experimentales. Ejemplos incluyen su uso en almacenamiento flash y sensores de imagen, lo que demuestra su versatilidad como material semiconductor. Estas demostraciones anteriores destacaron la viabilidad de utilizar MoS2 en aplicaciones electrónicas, allanando el camino para integraciones más complejas como un procesador funcional.

    Un habilitador crucial para este procesador fue el reciente avance en la generación de láminas de MoS2 a escala de oblea sobre un sustrato de zafiro. Este salto tecnológico permitió a los investigadores producir el material en un formato compatible con los procesos de fabricación de semiconductores existentes. El equipo capitalizó esta capacidad para construir su procesador, al que han llamado RV32-WUJI. Esta capacidad de crear láminas de MoS2 de gran área es un paso significativo hacia la ampliación de la producción y la fabricación de electrónica basada en MoS2 más viable comercialmente.

    Si bien el procesador RV32-WUJI está actualmente limitado en sus capacidades, representa una notable prueba de concepto. Solo puede realizar sumas de un solo bit y opera a velocidades de reloj de kilohertzios, significativamente más lento que los procesadores de silicio modernos. Sin embargo, su importancia radica en su capacidad para ejecutar el conjunto completo de instrucciones RISC-V de 32 bits. Esta funcionalidad se logra mediante la integración de casi 6.000 transistores individuales construidos con disulfuro de molibdeno, lo que demuestra el potencial del material para construir circuitos digitales complejos.

    Curiosamente, algunos dispositivos de demostración anteriores que utilizaban MoS2 incorporaron grafeno como material conductor. Sin embargo, el equipo detrás del procesador RV32-WUJI se centró en el desarrollo de hardware experimental que fuera compatible con las técnicas de fabricación de silicio establecidas. Esta elección estratégica tiene como objetivo facilitar una producción más sencilla y, potencialmente, permitir la integración de chips de soporte de silicio junto con el procesador MoS2. Esta compatibilidad con la infraestructura existente podría acelerar la adopción y el desarrollo de tecnologías basadas en MoS2.

    Investigadores chinos desarrollaron un procesador RISC-V de 32 bits, RV32-WUJI, utilizando disulfuro de molibdeno (MoS2), un semiconductor 2D similar al grafeno. Este avance, basado en láminas de MoS2 a escala de oblea, demuestra el potencial de los materiales 2D más allá del grafeno y podría facilitar la producción e integración con la tecnología de silicio existente, a pesar de las actuales limitaciones de velocidad. La exploración de las propiedades únicas de los materiales 2D podría revolucionar la electrónica futura.