Category: Artificial Intelligence

AI

  • Avatar IA de Fallecido Influye en Sentencia

    En un paso innovador y controvertido, un tribunal de Arizona aceptó recientemente una declaración en video generada por inteligencia artificial en una audiencia de sentencia. La declaración presentaba un avatar modelado a partir de un hombre fallecido, Christopher Pelkey, quien fue asesinado en un incidente de furia al volante. Esto marca la primera vez que un avatar de IA de una víctima se dirige a un tribunal, lo que plantea importantes interrogantes sobre el futuro papel de la IA en los procedimientos legales.

    En un movimiento innovador y controvertido, un tribunal de Arizona aceptó una declaración en video generada por IA del avatar de una víctima fallecida, Christopher Pelkey, durante la audiencia de sentencia de su asesino, Gabriel Horcasitas. Esto marca la primera vez que un avatar de IA que representa a una persona fallecida se dirige a un tribunal, lo que plantea preguntas importantes sobre el uso futuro de dicha tecnología en los procedimientos legales.

    El avatar de IA, creado por la hermana de Pelkey, Stacey Wales, fue diseñado para parecerse y sonar como Pelkey. La declaración del avatar incluía un mensaje de perdón hacia Horcasitas, que decía: “A Gabriel Horcasitas, el hombre que me disparó, es una pena que nos hayamos encontrado ese día en esas circunstancias… Creo en el perdón, en Dios que perdona, siempre lo he hecho. Y todavía lo hago”. Este mensaje, entregado por el avatar de IA, fue un elemento central de la audiencia de sentencia.

    La creación del avatar de IA fue un esfuerzo de colaboración. Stacey Wales, que había tenido dificultades para escribir su propia declaración de impacto de la víctima, encabezó el proyecto. Su esposo, Tim Wales, un profesional de la tecnología, utilizó herramientas de IA para crear el video. Utilizaron Stable Diffusion ajustado con una Adaptación de Bajo Rango (LoRA) para crear el video, y luego utilizaron una IA generativa y procesos de aprendizaje profundo para crear un clon de voz a partir de su voz original.

    El juez del caso, Todd Lang, se sintió visiblemente conmovido por el video de IA. Declaró: “Me encantó esa IA, y gracias por eso. Por mucho que estés enojada, y con razón la familia lo está, escuché el perdón, y sé que el Sr. Horcasitas pudo apreciarlo, pero yo también”. Esta reacción destaca el impacto emocional que el avatar de IA tuvo en el tribunal y en la percepción del juez sobre el caso.

    El uso del avatar de IA no estuvo exento de complejidades. El video incluía tanto el segmento generado por IA como imágenes de video reales de Pelkey de cuando estaba vivo. Si bien las palabras del avatar de IA fueron escritas por Stacey Wales, la inclusión de imágenes de video auténticas tenía como objetivo humanizar a Pelkey y proporcionar una imagen más completa de su carácter.

    La abogada de los derechos de las víctimas, Jessica Gattuso, enfatizó que las leyes de Arizona permitían este tipo de declaración. Declaró: “Tenemos una carta de derechos de las víctimas… [Las víctimas] tienen la discreción de elegir el formato en el que desean dar la declaración. Así que no vi ningún problema con la IA y no hubo objeción. No creo que nadie pensara que había un problema con eso”. Esto indica que el marco legal en Arizona facilitó el uso del avatar de IA.

    El uso de la IA en la sala del tribunal es un tema polémico, con casos anteriores de abogados que citan casos alucinados por la IA. Este caso, sin embargo, se manejó con transparencia. Como señaló Gattuso, “Stacey fue sincera y el video en sí… decía que fue generado por IA. Tuvimos mucho cuidado de asegurarnos de que quedara claro que estas eran las palabras que la familia creía que Christopher habría dicho. En ningún momento nadie intentó hacerlas pasar por las propias palabras de Chris”.

    El impacto del video de IA se extendió al resultado de la sentencia. La fiscalía había solicitado una condena de nueve años, mientras que el máximo era de diez años y medio. Stacey Wales había solicitado la pena máxima durante su propia declaración de impacto, y el juez accedió a su solicitud. Stacey atribuye el video de IA, en parte, a este resultado, y afirma: “Nuestro objetivo era hacer llorar al juez. Nuestro objetivo era dar vida a Chris y humanizarlo”.

    El caso plantea varias consideraciones éticas y legales. El uso de avatares de IA en los procedimientos judiciales podría difuminar las líneas entre la realidad y la simulación, lo que plantea interrogantes sobre la autenticidad y el potencial de manipulación. El hecho de que las palabras del avatar de IA fueran escritas por un familiar, en lugar de ser las palabras directas del difunto, complica aún más el problema.

    El caso también subraya el poder emocional de la tecnología y su potencial para influir en los resultados legales. La reacción del juez ante el avatar de IA demuestra el impacto emocional que dicha tecnología puede tener en los involucrados en los procedimientos legales. Este caso sirve como precedente, y es probable que más tribunales se enfrenten al uso de la IA en el futuro.

    El uso de la IA en este caso es un testimonio del poder de la tecnología para crear un impacto duradero. La familia buscó honrar a Pelkey y controlar la narrativa que rodeaba su muerte. El avatar de IA les permitió hacerlo, proporcionando una plataforma para su voz y su mensaje de perdón.

    El artículo describe el uso sin precedentes de un avatar de IA, similar al difunto Christopher Pelkey, para pronunciar una declaración de impacto de la víctima en el caso contra Gabriel Horcasitas, condenado por su asesinato. La IA, creada por la hermana de Pelkey, expresó perdón y un deseo de amistad con el perpetrador, conmoviendo profundamente al juez e influyendo en la sentencia. Si bien plantea preocupaciones éticas sobre la IA en los procedimientos legales, el caso resalta el potencial de la tecnología para humanizar a las víctimas y brindar cierre a las familias en duelo, impulsando una conversación crucial sobre el papel evolutivo de la IA en nuestro sistema de justicia.

  • ¿El iPhone, al destino del iPod?

    El ejecutivo de Apple, Eddy Cue, advirtió recientemente que el iPhone, un pilar fundamental del negocio de Apple, podría enfrentar un destino similar al del iPod en la próxima década. Esta preocupante predicción se deriva del rápido avance de la inteligencia artificial (IA) y su potencial para transformar radicalmente la industria tecnológica, lo que podría llevar a los consumidores a depender de dispositivos alternativos impulsados por la IA en lugar de los teléfonos inteligentes.

    Eddy Cue, vicepresidente sénior de servicios de Apple, hizo una predicción sorprendente: el iPhone, una piedra angular del éxito de Apple, podría enfrentarse a la obsolescencia en una década. Esta advertencia surge del potencial disruptivo de la inteligencia artificial, una fuerza que Cue cree que remodelará fundamentalmente el panorama tecnológico.

    Específicamente, Cue hizo estos comentarios durante el juicio sobre las medidas correctivas antimonopolio de Google Search, destacando la capacidad de la IA para introducir nuevos actores y desafiar a los gigantes tecnológicos establecidos. Enfatizó la dificultad que enfrentan las empresas establecidas para adaptarse a tales cambios transformadores, estableciendo un contraste entre la industria tecnológica y sectores más estables como el petróleo o la pasta de dientes. Esto sugiere que incluso empresas dominantes como Apple no son inmunes a los vientos del cambio tecnológico.

    Solidificando aún más este punto, Cue citó la decisión de Apple de descontinuar el iPod como un ejemplo primordial de pensamiento estratégico audaz. Enmarcó la medida como un paso necesario, aunque difícil, a pesar de que el iPod era un producto de gran éxito. La razón detrás de esta decisión, según Cue, fue abrazar la innovación y evitar estar atado a un solo producto, incluso a un “ganso de oro”.

    Esta perspectiva es particularmente notable dada la inmensa contribución del iPhone a los ingresos de Apple, que representa más de la mitad de sus ventas. Sin embargo, Cue ve la IA como un “enorme cambio tecnológico” que podría potencialmente derrocar incluso a las empresas más exitosas. Señaló el declive de antiguos titanes tecnológicos como HP, Sun Microsystems e Intel, que, a pesar de su dominio pasado, ya no existen o han disminuido significativamente su influencia.

    Además, el artículo explora los intentos de otras empresas de reemplazar los teléfonos inteligentes con dispositivos impulsados por IA. Si bien estas primeras iniciativas, como Meta AI en las gafas Ray-Ban Meta, aún no han logrado un éxito generalizado, ilustran el interés de la industria en ir más allá del paradigma del teléfono inteligente. Esta tendencia sugiere un cambio más amplio hacia asistentes impulsados por IA que son accesibles a través de varios dispositivos, lo que podría hacer que el teléfono inteligente sea menos central para la experiencia del usuario.

    Según los informes, Apple está desarrollando sus propias soluciones para este panorama en evolución. Se rumorea que la compañía está explorando formas para que los usuarios interactúen con la IA a través de dispositivos auxiliares, incluidos relojes inteligentes, futuros AirPods y gafas inteligentes. Esta estrategia se alinea con la visión de Cue de un futuro en el que los asistentes de IA se integren perfectamente en varios aspectos de la vida diaria, reduciendo potencialmente la dependencia de un solo dispositivo como el iPhone.

    El ejecutivo de Apple, Eddy Cue, advierte que el dominio del iPhone podría declinar en una década, similar al del iPod, debido a la IA, una fuerza disruptiva que podría volver obsoletos los smartphones. Aunque los dispositivos iniciales enfocados en IA no han triunfado, Apple explora su integración en wearables como relojes y gafas, reconociendo el impacto de los cambios tecnológicos que han derrocado a gigantes de la industria. ¿Está llegando el fin de la era del smartphone, y estamos listos para un mundo con asistentes de IA en nuestros wearables?

  • El Costo Oculto de la IA: Energía, Agua y Huella Ambiental Creciente

    En este momento, la inteligencia artificial generativa es imposible de ignorar en línea. Un resumen generado por IA puede aparecer aleatoriamente en la parte superior de los resultados cada vez que realizas una búsqueda en Google. O podrías ser invitado a probar la herramienta de IA de Meta mientras navegas por Facebook. Y ese omnipresente emoji de brillo sigue atormentando mis sueños. Esta prisa por agregar IA a tantas interacciones en línea como sea posible se remonta al lanzamiento innovador de ChatGPT por parte de OpenAI a finales de 2022. Silicon Valley pronto se obsesionó con la IA generativa, y casi dos años después, las herramientas de IA impulsadas por modelos de lenguaje grandes impregnan la experiencia del usuario en línea.

    La proliferación de la inteligencia artificial (IA) generativa en línea, impulsada por el lanzamiento de ChatGPT de OpenAI a finales de 2022, ha provocado un aumento significativo de las demandas de computación, lo que ha dado lugar a una nueva era de hiperconsumo. Este cambio se caracteriza por el uso intensivo de recursos, en particular electricidad y agua, para construir y operar estos sistemas de IA.

    Una de las principales preocupaciones derivadas de este auge de la IA es su considerable consumo de energía. Sajjad Moazeni, investigador de ingeniería informática en la Universidad de Washington, estima que las aplicaciones de IA generativa son entre 100 y 1.000 veces más intensivas en computación que los servicios tradicionales como la Búsqueda de Google o el correo electrónico. Este aumento de la carga computacional se traduce directamente en mayores necesidades energéticas tanto para el entrenamiento como para el despliegue. Los expertos predijeron aumentos en la demanda de energía en los centros de datos, y Google ha dejado recientemente de considerarse neutro en carbono. Además, Microsoft podría tener dificultades para cumplir sus objetivos de sostenibilidad en la carrera por desarrollar herramientas de IA avanzadas.

    El consumo de energía de la IA es directamente proporcional a la cantidad de computación realizada. Junchen Jiang, investigador de sistemas en red en la Universidad de Chicago, subraya que cuanto mayor es el modelo de IA, más computación se requiere. Esta tendencia es particularmente preocupante, ya que los modelos de IA de vanguardia son cada vez más complejos y consumen más recursos. Si bien el consumo de energía de Google se duplicó entre 2019 y 2023, Corina Standiford, portavoz de la empresa, sugiere que no es justo afirmar que el consumo de energía de Google se disparó durante la carrera de la IA. Sin embargo, el proceso de fabricación de servidores y otras infraestructuras para los centros de datos, del que son responsables los proveedores de Google, es un factor clave.

    A pesar de las crecientes necesidades energéticas de los centros de datos, el consumo total de energía de la IA sigue siendo un pequeño porcentaje del uso global de energía. Fengqi You, investigador de ingeniería de sistemas energéticos en Cornell, señala que sectores como las refinerías de petróleo, los edificios y el transporte consumen actualmente mucha más energía. No obstante, el potencial de crecimiento de la huella energética de la IA en el futuro es considerable, a medida que las herramientas de IA generativa se integran en más aspectos de Internet y son adoptadas por una base de usuarios más amplia.

    Más allá del consumo de energía, los centros de datos que entrenan y operan modelos de IA generativa también consumen grandes cantidades de agua. Shaolei Ren, investigador de IA responsable en UC Riverside, destaca que estos centros de datos evaporan agua en la atmósfera, lo que repercute en los recursos hídricos locales. Este impacto difiere significativamente del uso residencial del agua, ya que los centros de datos suelen extraer agua de las empresas de servicios públicos y evaporarla, en lugar de devolverla al medio ambiente.

    Alistair Speirs, director sénior de infraestructura global de Azure en Microsoft, reconoce el papel de la IA en el crecimiento de los centros de datos, pero también destaca la transición a la computación en la nube como un factor que contribuye. Microsoft pretende ser negativo en carbono, positivo en agua y cero residuos para finales de la década. Fengqi You subraya la importancia de la transición a fuentes de energía renovables, al tiempo que cuestiona la eficacia de los planes de compensación de carbono. Ren sugiere que se preste más atención a la huella hídrica de la cadena de suministro de las grandes empresas, así como a su consumo directo.

    Los principales actores en la carrera de la IA, como Google, Microsoft, Meta y OpenAI, están a la vanguardia de este cambio. Si bien Microsoft y Google han hecho declaraciones sobre sus objetivos de sostenibilidad, el impacto real de sus esfuerzos de desarrollo de la IA está por verse.

    Las empresas tecnológicas suelen posicionar el desarrollo de la IA como parte de la solución climática. Los investigadores están explorando formas de reducir el impacto medioambiental de la IA, centrándose en chips de hardware más eficientes y modelos de IA más pequeños que requieran menos computación.

    Las demandas energéticas de estos centros de datos también tienen el potencial de tensar las redes eléctricas locales. Moazeni señala su preocupación por el centro de datos de Microsoft en Quincy, Washington, que podría consumir una parte importante del suministro de energía de la zona. Las granjas de servidores que entrenan y operan modelos de IA pueden competir con los residentes y las empresas locales por la energía, lo que podría provocar apagones durante las horas punta. Bobby Hollis, vicepresidente de energía de Microsoft, afirma que la empresa colabora con las autoridades y las empresas de servicios públicos para evitar afectar a los servicios locales.

    La omnipresencia de las herramientas de IA generativa dificulta que los usuarios eviten su consumo de energía. Incluso si los usuarios no buscan activamente estas herramientas, a menudo se integran como funciones predeterminadas en los sistemas operativos, las aplicaciones web y los programas de software cotidianos. La creciente presencia de la IA en las interacciones en línea, desde los portales de trabajo hasta las redes sociales, hace que sea casi imposible evitar los chatbots y los resúmenes impulsados por la IA.

    A medida que la IA sigue integrándose en más aspectos de la vida en línea, los límites superiores de su consumo de energía y agua siguen siendo inciertos. Las implicaciones medioambientales y sociales a largo plazo de esta rápida expansión aún no se han comprendido plenamente.

    La rápida proliferación de la IA generativa está impulsando un aumento en el consumo de energía y agua, lo que sobrecarga los centros de datos y podría impactar los recursos locales. Aunque empresas como Google y Microsoft están abordando estas preocupaciones, la magnitud de la huella de la IA exige un cambio hacia energías renovables, responsabilidad en la cadena de suministro y modelos de IA más eficientes; de lo contrario, nuestra búsqueda de máquinas inteligentes podría tener un costo ambiental significativo.

  • La universidad que engañó a la IA

    Este artículo explora el creciente uso de la inteligencia artificial generativa, particularmente ChatGPT, entre los estudiantes universitarios y los desafíos resultantes para los educadores. Comienza con la historia de Chungin “Roy” Lee, un estudiante de la Universidad de Columbia que admite abiertamente usar la IA para completar una parte significativa de su trabajo académico, destacando una tendencia en crecimiento que está transformando el panorama de la educación superior y planteando preguntas fundamentales sobre el propósito del aprendizaje y el futuro de la evaluación.

    Chungin “Roy” Lee, un estudiante de informática de la Universidad de Columbia, admitió abiertamente haber usado extensivamente la IA generativa para hacer trampa en casi todas sus tareas. Se basó en la IA para escribir una parte significativa de sus ensayos, insertando solo un pequeño porcentaje de su propia voz. Este enfoque le permitió navegar por sus cursos con el mínimo esfuerzo. Veía la universidad como un medio para un fin, principalmente para conocer a posibles cofundadores y a una futura esposa. Esta perspectiva resalta una visión transaccional de la educación superior, donde el objetivo principal no es el crecimiento intelectual sino el logro de objetivos personales específicos.

    El camino de Lee a Columbia fue poco convencional. Inicialmente fue aceptado en Harvard, pero le rescindieron la oferta. Después de un año en un community college, se transfirió a Columbia, donde priorizó el networking y el emprendimiento sobre lo académico. Él y un cofundador desarrollaron varias ideas de startups, ninguna de las cuales ganó tracción. Esta experiencia lo llevó a desarrollar una herramienta llamada Interview Coder, diseñada para ayudar a los usuarios a hacer trampa durante las entrevistas de trabajo remotas al ocultar la asistencia de la IA.

    La creación de Interview Coder por parte de Lee resultó en una acción disciplinaria por parte de la Universidad de Columbia. Fue puesto en libertad condicional por anunciar una herramienta para hacer trampa. A pesar de esto, Lee cree que el aprendizaje asistido por IA es inevitable y que las políticas actuales en su contra están desactualizadas. Ve el futuro de la educación como uno donde la IA está perfectamente integrada y las líneas entre la entrada humana y la artificial se difuminan.

    El artículo luego se centra en el panorama más amplio del uso de la IA en la educación superior. Una encuesta de enero de 2023 reveló que casi el 90% de los estudiantes universitarios habían usado ChatGPT para las tareas. Estudiantes de varias instituciones, desde grandes escuelas estatales hasta universidades de la Ivy League, están aprovechando las herramientas de IA para una amplia gama de tareas académicas, incluyendo la toma de notas, la escritura de ensayos, la codificación y la investigación. Esta adopción generalizada subraya el impacto transformador de la IA en el proceso de aprendizaje.

    Sarah, una estudiante de la Universidad Wilfrid Laurier, ejemplifica esta tendencia. Usó ChatGPT extensivamente en su último año de secundaria y continuó confiando en él en la universidad, experimentando mejoras significativas en sus calificaciones. Admite una posible dependencia de la IA, reflejando su dependencia existente de las plataformas de redes sociales. Esto resalta el potencial de la IA para convertirse en una parte integral de las rutinas diarias de los estudiantes, impactando sus hábitos de estudio y potencialmente su desarrollo cognitivo.

    Los educadores están luchando por adaptarse a esta nueva realidad. Los profesores han experimentado con tareas a prueba de IA, como volver a los Blue Books tradicionales o realizar exámenes orales. Sin embargo, estos métodos a menudo son insuficientes. Brian Patrick Green, un académico de ética tecnológica, descubrió que la IA podía eludir fácilmente sus intentos de crear tareas a prueba de IA. Esto ilustra los desafíos que enfrentan los educadores para mantener la integridad académica en la era de la IA.

    El artículo enfatiza que hacer trampa no es algo nuevo, pero la IA ha “volado el techo”. La facilidad con la que los estudiantes ahora pueden acceder a las herramientas de IA ha hecho que hacer trampa sea más prevalente y menos detectable. Troy Jollimore, un profesor, expresa su preocupación porque los estudiantes están saliendo de la universidad con títulos pero carecen de habilidades fundamentales, incluyendo la alfabetización y el pensamiento crítico. Esto plantea interrogantes sobre el impacto a largo plazo de la IA en la calidad de la educación y la preparación de los graduados para el mundo laboral.

    Antes de la llegada de ChatGPT, los estudiantes ya tenían acceso a herramientas como Chegg y Course Hero, que proporcionaban respuestas a las preguntas de las tareas. ChatGPT ofreció una alternativa más rápida y capaz, acelerando la tendencia del aprendizaje asistido por IA. Los administradores escolares están luchando por establecer políticas efectivas para abordar el uso de la IA. Muchas universidades han adoptado un enfoque ad hoc, dejando a los profesores la decisión de permitir o no la IA.

    Wendy, una estudiante de primer año de finanzas, describe su proceso paso a paso para usar la IA para escribir ensayos. Le proporciona a la IA instrucciones, un esquema y oraciones temáticas, y luego completa el contenido. Reconoce que la IA facilita la escritura, pero también admite que echa de menos la participación intelectual de escribir ensayos ella misma. Esto resalta las compensaciones que los estudiantes están haciendo entre la eficiencia y el desarrollo de habilidades de pensamiento crítico.

    Los profesores están teniendo dificultades para detectar la escritura generada por IA, incluso con el uso de detectores de IA. Los estudios han demostrado que estos detectores no siempre son precisos y que los estudiantes pueden eludirlos fácilmente. Los estudiantes pueden reescribir el texto generado por IA, agregar errores tipográficos o usar otras herramientas de IA para que su trabajo parezca más auténtico. Esta carrera armamentística entre educadores y estudiantes subraya los desafíos de mantener la integridad académica frente a la rápida evolución de la tecnología de IA.

    El artículo explora las posibles consecuencias a largo plazo del uso generalizado de la IA en la educación. A los expertos les preocupa que pueda socavar las capacidades cognitivas de los estudiantes, incluyendo la memoria, la resolución de problemas y la creatividad. Los estudios han relacionado el uso de la IA con una disminución de las habilidades de pensamiento crítico. Esto plantea interrogantes sobre el futuro de la educación y las habilidades que los estudiantes necesitarán para tener éxito en el mundo laboral.

    Daniel, un estudiante de informática, reflexiona sobre su experiencia con la IA. La encuentra útil para acceder a la información y pulir su trabajo, pero también se pregunta si aprendería más si dependiera menos de la IA. Reconoce las áreas grises del uso de la IA y cuestiona dónde comienza su trabajo y dónde termina el de la IA. Esto resalta los dilemas éticos que enfrentan los estudiantes a medida que integran la IA en sus procesos de aprendizaje.

    El artículo concluye examinando las implicaciones más amplias de la IA en la educación. Orin Starn enfatiza la importancia del lenguaje en el desarrollo del pensamiento crítico. Michael Johnson destaca el valor de la adversidad estructurada en la construcción de la autoestima y la ética de trabajo. Sam Altman, CEO de OpenAI, ha restado importancia a las preocupaciones sobre el uso de la IA en el ámbito académico, pero también reconoce el potencial de que los usuarios pierdan su propio proceso de discriminación.

    Lee, después de ser suspendido de Columbia, ha pasado a nuevas empresas. Lanzó Cluely, una herramienta impulsada por IA diseñada para proporcionar retroalimentación y respuestas en tiempo real. Espera expandir su uso a varios entornos académicos. Esto refleja una tendencia más amplia de emprendedores que capitalizan la demanda de soluciones impulsadas por IA en la educación y más allá.

    El artículo analiza el auge del uso de la IA para hacer trampas en la educación superior, detallando la experiencia de un estudiante y el cambio general hacia la integración de la IA en el aprendizaje. Se destacan las preocupaciones sobre la disminución del pensamiento crítico, la insuficiencia de los métodos de detección actuales y la posibilidad de una remodelación fundamental del panorama educativo. A medida que la IA continúa evolucionando, la pregunta no es si prohibirla, sino cómo adaptarse y redefinir lo que significa aprender y tener éxito en un mundo donde la inteligencia está cada vez más aumentada.

  • ¿Andreessen: la IA no lo reemplazará? ¿Es cierto?

    Marc Andreessen, un destacado capitalista de riesgo e innovador tecnológico, declaró recientemente que su profesión podría ser una de las últimas en resistir la automatización por inteligencia artificial. Este artículo examina el argumento de Andreessen, explora el potencial de la IA en el capital de riesgo y cuestiona si su visión del papel de un VC se alinea con la realidad.

    Marc Andreessen, el reconocido capitalista de riesgo y cofundador de Andreessen Horowitz, cree que su profesión es singularmente inmune a las fuerzas disruptivas de la inteligencia artificial. Postula que el capital de riesgo, a diferencia de muchos otros campos, seguirá siendo un dominio donde la experiencia humana reina suprema, incluso cuando la IA impregne casi todos los demás aspectos de la vida.

    El argumento de Andreessen se basa en la idea de que el capital de riesgo es un arte, no una ciencia. Sostiene que la capacidad de identificar y nutrir startups exitosas requiere una comprensión intangible e intuitiva que la IA simplemente no puede replicar. Utiliza ejemplos de diversas industrias, como la industria ballenera y los estudios de cine, para ilustrar el papel de los guardianes humanos en empresas de alto riesgo y alta recompensa.

    Sin embargo, el autor desafía la perspectiva de Andreessen al resaltar varios puntos críticos. Primero, el autor señala que la propia descripción de Andreessen de la tasa de éxito del capital de riesgo – “dos de cada 10 de las grandes empresas de la década” – sugiere un alto grado de aleatoriedad y “casualidad” en el proceso. Esta imprevisibilidad inherente, argumenta el autor, podría ser una debilidad que la IA podría explotar.

    Además, el autor presenta evidencia que contradice la afirmación de Andreessen de que la IA es incapaz de proporcionar valiosos consejos empresariales. Una encuesta de SAP revela que un porcentaje significativo de ejecutivos de nivel C en empresas multimillonarias ya confían en la IA para tomar decisiones empresariales y creen que ofrece mejores consejos que sus homólogos humanos. Esto sugiere que las mismas personas en las que Andreessen confía para su sustento ya están empezando a percibir su papel como potencialmente obsoleto.

    El autor también critica la forma en que Andreessen retrata cómo funciona realmente el capital de riesgo. El autor señala que la industria ha operado históricamente como una “red de buenos amigos”, favoreciendo a los hombres blancos sobre las mujeres y las personas de color. Este patrón sugiere que las decisiones de capital de riesgo a menudo se basan en factores distintos del mero mérito, algo que la IA podría potencialmente rectificar.

    El autor luego explora el potencial de la IA para interrumpir el panorama del capital de riesgo. Si la IA analizara la vasta cantidad de datos de decisiones de inversión pasadas, podría identificar patrones y criterios de éxito que los VC humanos pasan por alto. Esto podría conducir a un enfoque más diverso y meritocrático para financiar startups, potencialmente favoreciendo a las empresas en función de factores como su impacto en la humanidad o su promoción de la movilidad social.

    El autor concluye reconociendo las posibles limitaciones de la tecnología de IA actual, particularmente en áreas que requieren un pensamiento crítico y creativo de alto nivel. Sin embargo, el autor argumenta que la calidad del trabajo de la IA puede no ser el factor determinante. La historia está llena de ejemplos de procesos automatizados que produjeron productos objetivamente inferiores, pero que aún así reemplazaron la mano de obra humana.

    En última instancia, el autor sugiere que la creencia de Andreessen en la naturaleza irremplazable de su profesión proviene del deseo de mantener su estatus como guardián. El autor argumenta que la función principal que Andreessen está defendiendo no es simplemente invertir, sino el poder de controlar quién obtiene acceso a la influencia y los recursos. En este sentido, el autor está de acuerdo con Andreessen: ninguna máquina podría jamás reemplazarlo, porque el papel que valora se trata de mantener el poder, no necesariamente de tomar las mejores decisiones de inversión.

    En última instancia, la afirmación de Andreessen de que la IA no puede reemplazarlo se basa no en la complejidad inherente del capital de riesgo, sino en su papel como guardián de la influencia. Una IA, centrada en el mérito en lugar de la afinidad personal, podría desmantelar esa posición, lo que potencialmente conduciría a un futuro más equitativo e innovador.

  • Las IA de OpenAI alucinan más: el misterio

    Pruebas recientes realizadas por OpenAI revelan una tendencia preocupante: sus últimos modelos de lenguaje de gran tamaño, GPT-o3 y GPT-o4-mini, son significativamente más propensos a “alucinar” —inventar información falsa— que su modelo anterior, GPT-o1. Este desarrollo se suma al creciente misterio que rodea el funcionamiento real de estos complejos sistemas de IA, especialmente a medida que incorporan capacidades de “razonamiento” diseñadas para imitar los procesos de pensamiento humano.

    Según informes recientes, el problema de la alucinación de ChatGPT, la tendencia a generar información falsa o engañosa, está empeorando, incluso según las propias pruebas internas de OpenAI. Este desarrollo plantea un desafío significativo para la adopción y utilidad generalizada de los modelos de lenguaje grandes (LLM), ya que la fiabilidad de su producción es crucial para muchas aplicaciones.

    Específicamente, un informe del New York Times destaca los hallazgos de OpenAI con respecto a sus últimos modelos GPT. La investigación reveló que los modelos más nuevos, GPT o3 y GPT o4-mini, exhiben tasas de alucinación significativamente más altas en comparación con el modelo GPT o1 anterior. Por ejemplo, al ejecutar la prueba de referencia PersonQA, GPT o3 alucinó el 33% de las veces, más del doble de la tasa de GPT o1. Además, GPT o4-mini tuvo un rendimiento aún peor, con una tasa de alucinación del 48% en la misma prueba.

    Además, el problema se extiende a preguntas más generales. En la prueba SimpleQA, las tasas de alucinación para GPT o3 y GPT o4-mini fueron del 51% y el 79%, respectivamente, mientras que GPT o1 alucinó el 44% de las veces. Estas estadísticas indican claramente una tendencia preocupante de aumento de la alucinación en los modelos más nuevos, a pesar de los avances en otras áreas de rendimiento.

    El aumento de las alucinaciones parece coincidir con el desarrollo de “modelos de razonamiento”, un tipo de LLM diseñado para realizar tareas complejas dividiendo las preguntas en pasos individuales, imitando un proceso de pensamiento humano. Los observadores de la industria sugieren que estos sistemas de razonamiento, incluidos los de OpenAI, Google y DeepSeek, están generando más errores, no menos.

    El primer modelo de razonamiento de OpenAI, o1, fue elogiado por su rendimiento, e incluso se afirmó que igualaba o superaba a los estudiantes de doctorado en varios campos científicos. Sin embargo, los modelos más nuevos, o3 y o4-mini, parecen haber retrocedido en términos de fiabilidad. Esto sugiere que las técnicas utilizadas para mejorar las capacidades de razonamiento pueden contribuir inadvertidamente al problema de la alucinación.

    A pesar de estos hallazgos, OpenAI ha declarado que se requiere más investigación para comprender completamente las razones detrás del aumento de las tasas de alucinación. Además, la compañía ha rechazado la narrativa de que los modelos de razonamiento sufren inherentemente tasas de alucinación más altas, y Gaby Raila de OpenAI declaró que están trabajando activamente para reducir las tasas más altas observadas en o3 y o4-mini.

    Las implicaciones de esta tendencia son significativas. El principal beneficio de los LLM radica en su capacidad para ahorrar tiempo y trabajo mediante la automatización de tareas y la provisión de información. Sin embargo, la necesidad de revisar y verificar meticulosamente la producción de estos modelos socava esta ventaja. Si no se puede confiar en la producción de los LLM, su utilidad se ve severamente limitada, particularmente en aplicaciones donde la precisión es primordial.

    El artículo enfatiza la necesidad de que los LLM reduzcan significativamente su tendencia a generar información falsa o engañosa si quieren cumplir su potencial. El futuro de estas tecnologías depende de la capacidad de los desarrolladores para abordar el problema de la alucinación y garantizar la fiabilidad de su producción. La capacidad de confiar en la información proporcionada por estos modelos es crucial para su adopción generalizada y su integración en varios aspectos de nuestras vidas.

    Los modelos más recientes de OpenAI (GPT-o3 y o4-mini) alucinan a tasas significativamente mayores que las versiones anteriores, a pesar de las mejoras en sus capacidades de “razonamiento”. Aunque OpenAI niega una conexión directa entre razonamiento y alucinaciones, el problema socava la fiabilidad de los LLMs y reduce su utilidad práctica, lo que plantea a la industria el desafío crucial de frenar estos “sueños robóticos no deseados”.

  • Reddit verifica la humanidad de usuarios tras escándalo de bots IA

    Reddit se enfrenta a un problema creciente: bots impulsados por inteligencia artificial que se hacen pasar por humanos en la plataforma. Este problema se intensificó recientemente cuando un equipo de investigación liberó un enjambre de estos bots en el subreddit “Change My View” (Cambia mi opinión), lo que provocó indignación y generó preocupaciones sobre la autenticidad y el futuro de la plataforma, especialmente dada la asociación de Reddit con OpenAI.

    Recientemente, los redditors se vieron sacudidos por la revelación de que investigadores desplegaron bots impulsados por IA en el subreddit “Change My View”, diseñados para imitar a usuarios humanos y explorar las capacidades persuasivas de la IA. Este experimento, que involucró más de 1,700 comentarios de bots que adoptaron varias personalidades, incluidas algunas sensibles como sobrevivientes de abuso y otras controvertidas como defensores anti-Black Lives Matter, expuso una vulnerabilidad significativa dentro de la plataforma.

    Este incidente sirvió como una “mini-pesadilla” para Reddit, ya que desafió directamente la identidad y la marca centrales de la plataforma. Reddit siempre ha sido sinónimo de autenticidad, un espacio donde usuarios genuinos comparten opiniones reales. La intrusión de contenido generado por IA amenaza esta base. Si los usuarios ya no pueden confiar en la fuente de información, el valor de la plataforma disminuye, lo que podría impactar su estabilidad financiera, especialmente considerando sus ventas de contenido a OpenAI para fines de entrenamiento.

    En respuesta a esta amenaza, Reddit ha tomado medidas, señalando un cambio hacia una mayor verificación de usuarios. El CEO Steve Huffman anunció planes para colaborar con “varios servicios de terceros” para verificar la humanidad de los usuarios. Esto representa una desviación significativa de la postura histórica de la plataforma de requisitos mínimos de información personal para la creación de cuentas.

    Esta medida está impulsada por múltiples factores. En primer lugar, la necesidad de combatir la proliferación de bots de IA y mantener un entorno centrado en lo humano. En segundo lugar, el panorama regulatorio en evolución, con varios estados y países que exigen la verificación de edad para proteger a los niños en las plataformas de redes sociales, está empujando a las plataformas a adoptar métodos de verificación más robustos. Huffman enfatizó la necesidad de “mantener Reddit humano” y cumplir con estos requisitos regulatorios.

    Los detalles específicos de este proceso de verificación siguen sin estar claros. Un portavoz de Reddit se negó a especificar cuándo se requeriría la verificación o qué servicios de terceros se utilizarían. Sin embargo, confirmaron las medidas existentes para prohibir los bots “malos”. Esta falta de transparencia plantea preguntas sobre el alcance y la implementación del nuevo sistema de verificación.

    La implementación de tales sistemas de verificación plantea varias preocupaciones, particularmente con respecto a la privacidad y la seguridad de los datos. Las empresas a menudo confían en plataformas de verificación como Persona, Alloy, Stripe Identity, Plaid y Footprint, que normalmente requieren identificaciones emitidas por el gobierno. Estas plataformas recopilan y almacenan información personal confidencial, creando riesgos potenciales.

    La posibilidad de uso indebido de los datos de los usuarios es una preocupación importante, especialmente en una plataforma como Reddit, donde los usuarios a menudo comparten experiencias sensibles de forma anónima. El artículo destaca el riesgo de que las autoridades citen las identidades de los usuarios, citando el ejemplo de Meta que entregó conversaciones privadas relacionadas con el aborto, lo que resultó en cargos legales.

    Para mitigar estos riesgos, Reddit tiene como objetivo lograr un equilibrio entre la verificación del usuario y la privacidad. Huffman declaró que la plataforma solo buscará “información esencial y nada más”, enfatizando que “nunca queremos saber su nombre o quién es usted”. También aseguró a los usuarios que Reddit sería “extremadamente protectora de su información personal” y que “continuaría oponiéndose a las demandas excesivas o irrazonables de las autoridades públicas o privadas”. Este compromiso de proteger el anonimato de los usuarios es crucial para mantener el atractivo de la plataforma y preservar sus valores fundamentales.

    Reddit se enfrenta a bots de IA que suplantan a humanos, amenazando su autenticidad y rentabilidad, lo que lleva a la empresa a explorar la verificación de usuarios, una medida que choca con su compromiso de larga data con el anonimato. Si bien busca proteger a los usuarios y cumplir con las regulaciones, este cambio plantea serias preocupaciones sobre la privacidad y seguridad de los datos, especialmente para aquellos que buscan refugio y comparten experiencias sensibles de forma anónima. ¿Proteger la identidad de Reddit comprometerá la libertad que ofrece?

  • IA: Rápido, ¿pero comprende el trabajo estudiantil?

    La corrección de trabajos estudiantiles, especialmente en materias científicas que enfatizan habilidades complejas como la argumentación y el análisis de datos, puede ser una carga de tiempo significativa para los profesores. Un nuevo estudio de la Universidad de Georgia explora cómo la inteligencia artificial, específicamente los Modelos de Lenguaje Amplios (LLMs), pueden ayudar con esta tarea, examinando sus capacidades y limitaciones actuales en la evaluación de las respuestas de los estudiantes.

    La corrección de exámenes, una tarea que consume mucho tiempo para muchos educadores, está siendo explorada para obtener asistencia potencial de la inteligencia artificial. Un estudio reciente de la Universidad de Georgia investiga las capacidades de los Modelos de Lenguaje de Gran Tamaño (LLM) en la corrección de trabajos estudiantiles, particularmente en el contexto de los Estándares de Ciencias de la Próxima Generación, que enfatizan habilidades complejas como la argumentación y el análisis de datos.

    El desafío principal radica en las limitaciones de tiempo que enfrentan los profesores. Como señala Xiaoming Zhai, autor correspondiente del estudio, la complejidad de tareas como la creación de modelos y la argumentación exige un tiempo de corrección significativo, lo que a menudo impide que los profesores proporcionen comentarios oportunos a los estudiantes. Aquí es donde las herramientas de IA, específicamente los LLM, entran en escena como posibles soluciones.

    El estudio se centra en cómo los LLM, entrenados en vastos conjuntos de datos para comprender y generar lenguaje humano, se desempeñan en la corrección en comparación con los correctores humanos. Los investigadores utilizaron el LLM Mixtral para evaluar las respuestas escritas de estudiantes de secundaria a una pregunta de ciencias sobre el comportamiento de las partículas y la transferencia de calor.

    Los hallazgos iniciales revelan que los LLM pueden corregir respuestas rápidamente, una ventaja significativa. Sin embargo, esta velocidad tiene un costo: la precisión. Los LLM tienden a depender de atajos, como la identificación de palabras clave, en lugar de evaluar la comprensión más profunda que un corrector humano.

    Específicamente, el estudio encontró que los LLM a menudo “sobre-infieren”, como describe Zhai. Por ejemplo, un LLM podría marcar una respuesta como correcta simplemente porque menciona un aumento de temperatura, incluso si la explicación del estudiante no demuestra una clara comprensión del movimiento de las partículas. Esta dependencia de señales superficiales resulta en una tasa de precisión más baja en comparación con los correctores humanos.

    Para mejorar la precisión de los LLM, el estudio sugiere proporcionarles rúbricas detalladas hechas por humanos. Estas rúbricas deben delinear criterios y reglas específicas que reflejen los procesos de pensamiento analítico de los correctores humanos. Al seguir estas reglas, el LLM puede evaluar las respuestas de los estudiantes con mayor precisión.

    El estudio también destaca las diferencias en el proceso de calificación entre los LLM y los correctores humanos. Tradicionalmente, los LLM se entrenan tanto en las respuestas de los estudiantes como en las calificaciones asignadas por humanos. Sin embargo, en este estudio, se instruyó al LLM para que generara su propia rúbrica.

    Los resultados mostraron que, si bien los LLM podían captar la intención general de las preguntas, carecían de la capacidad de razonar como los humanos. En cambio, recurrieron a atajos y al reconocimiento de palabras clave. Esta limitación subraya la necesidad de la guía humana en el proceso de corrección.

    Por ejemplo, Zhai señala que un LLM podría asumir incorrectamente que un estudiante comprende la relación entre la temperatura y el movimiento de las partículas basándose únicamente en la presencia de palabras clave, incluso si la explicación del estudiante no es clara o está incompleta. Esto contrasta con la capacidad de un corrector humano para evaluar la lógica y el razonamiento subyacentes.

    El estudio también examinó el impacto de proporcionar a los LLM ejemplos de respuestas calificadas sin explicaciones adjuntas. Los resultados mostraron que los LLM son especialmente propensos a depender de atajos en estas situaciones, lo que enfatiza aún más la importancia de rúbricas claras y la supervisión humana.

    A pesar del potencial de los LLM para la corrección automatizada, los investigadores advierten contra la sustitución completa de los correctores humanos. El estudio encontró que los LLM lograron solo una tasa de precisión del 33,5% sin rúbricas hechas por humanos. Sin embargo, cuando se les proporcionaron rúbricas hechas por humanos, la tasa de precisión mejoró a poco más del 50%.

    Esto sugiere que la intervención humana, en forma de rúbricas bien definidas, es crucial para mejorar la precisión de la corrección basada en LLM. El estudio enfatiza que, si bien los LLM pueden proporcionar una ventaja de velocidad, aún no son capaces de replicar el juicio matizado de los correctores humanos.

    Los investigadores creen que si la precisión de los LLM se puede mejorar aún más, los educadores podrían estar más abiertos a utilizar la tecnología para agilizar sus procesos de corrección. Zhai señala que muchos profesores expresan el deseo de reducir el tiempo dedicado a la corrección, lo que les permitiría concentrarse en tareas más significativas, como proporcionar comentarios personalizados y desarrollar lecciones atractivas.

    Los hallazgos del estudio, publicados en Technology, Knowledge and Learning, sugieren que la IA tiene el potencial de ayudar a los profesores con la corrección, pero no es una solución completa. La clave para una implementación exitosa radica en combinar la velocidad de los LLM con la experiencia y las capacidades analíticas de los correctores humanos. El equipo de investigación, que incluyó a Xuansheng Wu, Padmaja Pravin Saraf, Gyeonggeon Lee, Eshan Latif y Ninghao Liu, es optimista sobre el futuro de la IA en la educación, pero enfatiza la necesidad de continuar la investigación y el desarrollo para refinar estas herramientas y garantizar que se utilicen eficazmente.

    El estudio demuestra que, si bien la IA (específicamente modelos de lenguaje como Mixtral) puede calificar trabajos estudiantiles rápidamente, a menudo se basa en atajos y reconocimiento de palabras clave, lo que lleva a imprecisiones en la evaluación de la verdadera comprensión. Proporcionar a la IA rúbricas detalladas desarrolladas por humanos mejora significativamente la precisión, pero reemplazar por completo a los correctores humanos aún no es factible. En última instancia, la IA ofrece una herramienta prometedora para agilizar la calificación y liberar tiempo a los profesores, pero un desarrollo e integración cuidadosos son cruciales para garantizar una evaluación efectiva y significativa. Se justifica una mayor exploración de los matices de la calificación asistida por IA y su impacto en las prácticas pedagógicas.

  • Apocalipsis Laboral IA: Gigantes Tecnológicos Despiden

    Una creciente tendencia en el ámbito laboral implica que las empresas adoptan cada vez más inteligencia artificial (IA) y tecnologías de automatización para optimizar las operaciones y reducir costos. Si bien estos avances prometen un aumento de la productividad, también generan preocupación por la seguridad laboral, ya que empresas como Klarna, UPS, Duolingo, Intuit y Cisco Systems están implementando soluciones de IA que conducen a reducciones de personal y un alejamiento de la mano de obra humana.

    El auge de la inteligencia artificial (IA) y la automatización está transformando el lugar de trabajo moderno, lo que presenta un desafío significativo para la seguridad laboral de los trabajadores humanos. Las empresas están adoptando cada vez más estas tecnologías para optimizar las operaciones, reducir costos y aumentar la productividad, lo que a menudo conduce a reducciones de personal. Esta tendencia, aunque potencialmente beneficiosa para las empresas en términos de eficiencia y rentabilidad, plantea serias preocupaciones sobre el futuro del empleo para muchas personas.

    En consecuencia, numerosas corporaciones de diversos sectores están integrando activamente la IA y la automatización, lo que resulta en despidos y un cambio del trabajo humano. Por ejemplo, Klarna, una destacada empresa fintech de “compra ahora, paga después”, eliminó más de 1.000 empleos, aproximadamente el 10% de su fuerza laboral global, en 2024, como parte de un movimiento estratégico hacia la IA. La empresa invirtió fuertemente en IA para gestionar consultas de servicio al cliente, procesar transacciones y optimizar las operaciones, con un asistente de IA que gestiona la carga de trabajo equivalente a 700 empleados a tiempo completo. Esto ilustra una sustitución directa de roles humanos por sistemas impulsados por la IA.

    De manera similar, United Parcel Service (UPS) anunció planes para despedir a 20.000 trabajadores a principios de 2025, una de las mayores reducciones de personal en sus 116 años de historia. Si bien UPS aclaró que la IA no está reemplazando directamente a los trabajadores, la adopción de herramientas impulsadas por la IA para mejorar la eficiencia en logística, optimización de rutas e interacciones con los clientes sugiere que la automatización jugó un papel en la reducción de la necesidad de ciertos puestos. Esto destaca cómo incluso los gigantes de la logística establecidos están aprovechando la IA para reducir costos y adaptarse a las presiones económicas.

    Además, la tendencia se extiende más allá de las finanzas y la logística, impactando sectores como la educación y las industrias creativas. Duolingo, la popular aplicación de aprendizaje de idiomas, anunció una estrategia “primero la IA”, eliminando gradualmente a los contratistas humanos para tareas que la IA puede manejar. Esto resultó en la rescisión de acuerdos para el 10% de su fuerza laboral de contratistas, con la IA asumiendo la traducción y creación de contenido. Esto demuestra que incluso los roles previamente considerados seguros de la automatización ahora se ven impactados por las capacidades de la IA.

    Las presiones económicas, incluida la inflación y los precios volátiles de las acciones, están impulsando a las empresas a priorizar operaciones más ajustadas, acelerando la adopción de la IA y la automatización. El entusiasmo de los inversores por la IA incentiva aún más a las empresas a implementar estas tecnologías. Cuando la IA se utiliza en los anuncios corporativos, los precios de sus acciones a menudo suben. Esto crea un ciclo de retroalimentación positiva, alentando a más empresas a adoptar la IA, incluso si eso significa reducir su fuerza laboral humana.

    Además, Intuit, la empresa de software financiero detrás de TurboTax y QuickBooks, despidió a aproximadamente 1.800 empleados en 2024, afirmando que los ahorros se reinvertirían en tecnología de IA. El liderazgo de la empresa describió la IA como un componente crítico de su estrategia futura, particularmente para automatizar el soporte al cliente, el análisis de datos y los procesos de preparación de impuestos. Esto ejemplifica cómo las empresas están utilizando activamente el ahorro de costos de las reducciones de personal para impulsar un mayor desarrollo de la IA, creando un ciclo de automatización.

    Además, Cisco Systems anunció previamente planes para despedir al 7% de su fuerza laboral, aproximadamente 5.900 empleados, como parte de un giro estratégico hacia áreas de alto crecimiento como la IA y la ciberseguridad. La empresa ha estado integrando la IA en sus soluciones de red, como análisis predictivo para la gestión de redes y sistemas automatizados de soporte al cliente. Si bien se enmarca como una realineación estratégica, la adopción de herramientas de IA para manejar tareas como la supervisión y la solución de problemas de la red sugiere que la automatización redujo la necesidad de ciertos roles. Esto subraya la tendencia más amplia de la industria tecnológica de reducir las plantillas de trabajo humano mientras se escalan las capacidades de la IA.

    En conclusión, la adopción generalizada de la IA y la automatización está impactando significativamente el mercado laboral, lo que lleva a reducciones de personal en varias industrias. Las empresas están priorizando la eficiencia y el ahorro de costos, a menudo a expensas del empleo humano. Si bien estas tecnologías ofrecen beneficios en términos de productividad e innovación, también plantean preguntas críticas sobre el futuro del trabajo y la necesidad de estrategias para abordar los desafíos planteados por este panorama en evolución.

    El rápido avance de la IA y la automatización está transformando el entorno laboral. Empresas como Klarna, UPS, Duolingo, Intuit y Cisco Systems los están implementando para reducir costos y aumentar la productividad, lo que a menudo conlleva despidos. Impulsada por presiones económicas y el entusiasmo de los inversores, esta tendencia señala una posible reducción de empleos humanos en diversos sectores, desde atención al cliente y logística hasta creación de contenido y software financiero. A medida que la IA se encarga cada vez más de tareas realizadas anteriormente por trabajadores humanos, el futuro de la seguridad laboral exige una adaptación proactiva y un examen crítico de cómo navegamos este cambio tecnológico.

  • Ejército Robot de Ucrania: ¿Apuesta Arriesgada o Revolucionario Bélico?

    Ucrania ha anunciado ambiciosos planes para desplegar 15.000 robots terrestres (Vehículos Terrestres No Tripulados o UGVs) para 2025, con el fin de abordar una escasez crítica de personal en medio del conflicto en curso. Esto representa una ampliación significativa de las capacidades de guerra robótica, basándose en la rápida expansión de la producción de drones por parte de Ucrania.

    El mes pasado, funcionarios ucranianos anunciaron ambiciosos planes para desplegar 15.000 Vehículos Terrestres No Tripulados (UGV) en 2025, una importante ampliación de sus capacidades robóticas. Esta medida está impulsada por la apremiante necesidad de abordar una grave escasez de personal, como destaca Kateryna Bondar, investigadora del Centro Wadhwani de IA en el Centro de Estudios Estratégicos e Internacionales (CSIS). La urgencia de reemplazar los roles humanos con sistemas robóticos es primordial.

    Ucrania ya ha demostrado su capacidad para una rápida expansión en la producción de drones, pasando de unos pocos miles en 2022 a 200.000 en 2024 y alcanzando los 2 millones el año pasado. Sin embargo, desplegar miles de UGV presenta un desafío más complejo.

    La cifra de 15.000 robots de combate proviene de Hlib Kanevskyi, jefe del Ministerio de Defensa de Ucrania, quien declaró que los contratos para UGV aumentaron de 2,5 millones de dólares en la última mitad de 2024 a 150 millones de dólares en el primer trimestre de este año, lo que indica un aumento de inversión de aproximadamente cien veces.

    Existe un considerable optimismo en torno a la robótica militar, con la aparición de numerosos diseños ucranianos de UGV y la presentación de nuevos modelos con frecuencia. Estas máquinas, tanto con ruedas como con orugas, están diseñadas para una variedad de roles, incluida la limpieza de minas, la logística, la evacuación de heridos y el combate directo. Las recientes pruebas realizadas por la incubadora de tecnología de defensa BRAVE1 involucraron a 70 tipos diferentes de UGV.

    A pesar de la proliferación de diseños, el despliegue real de estas máquinas en las líneas del frente es limitado. De los 50 tipos aprobados para uso militar, solo entre 10 y 15 están en servicio regular. Esta discrepancia se debe en gran medida a desafíos prácticos, que son más significativos que los encontrados con los FPV de tamaño más pequeño, como los drones.

    La logística plantea un obstáculo importante. Como explica Bondar, transportar un UGV de 1.000 kilogramos a la línea del frente es una empresa logística en sí misma. Además, los UGV que funcionan con combustible requieren transporte de combustible, mientras que los que funcionan con baterías necesitan baterías grandes y pesadas y generadores para recargarse.

    El costo es otro factor. Si bien los drones pequeños son relativamente económicos y se consideran desechables, los UGV son considerablemente más costosos. Según Bondar, incluso un UGV pequeño con una pequeña carga útil puede costar entre 2.000 y 3.000 dólares, y los modelos más avanzados cuestan 10.000 dólares o más. Este mayor costo se debe a la complejidad de la fabricación, que no se puede lograr mediante la simple impresión 3D.

    Dados los costos y las limitaciones, los UGV son más efectivos en roles específicos donde los drones aéreos son menos adecuados.

    Los UGV están demostrando ser particularmente útiles en logística, como destaca Bondar. Se están utilizando cada vez más para llevar a cabo misiones y reemplazar al personal humano, eliminando así a las personas del riesgo físico.

    Los últimos kilómetros hasta la línea del frente están dentro del alcance de los drones FPV rusos, y los camiones y furgonetas son objetivos más fáciles que las posiciones fortificadas. Los UGV pueden transportar 60 kilos, reabasteciendo una posición de tropas durante cuatro o cinco días, lo que los hace muy eficientes.

    La evacuación de heridos es otra aplicación crítica. Sin embargo, la confianza en los UGV para este propósito es limitada y, a menudo, se considera un último recurso.

    Un caso involucró la evacuación de tres soldados heridos a más de 10 millas a través de un área bajo fuego intenso. Si bien tuvo éxito, la operación requirió más de 50 personas, incluido el operador del UGV, los operadores de drones y el apoyo de guerra electrónica.

    Esto resalta otro desafío: los UGV, aunque no tripulados, requieren un equipo de apoyo importante. Operarlos, especialmente fuera de la carretera, es complejo. Los robots de combate a menudo requieren un conductor, un operador de armas y un equipo de drones de dos personas para apoyo aéreo, lo que requiere cuatro personas y una gran cantidad de hardware para reemplazar a un soldado.

    La necesidad de un mejor software y capacidades autónomas es crucial. Como enfatiza Bondar, el futuro de los UGV reside en la autonomía y la IA.

    Un software inteligente permitiría a los UGV navegar de forma independiente, utilizando imágenes de drones autónomos. El operador funcionaría entonces como comandante de misión, dirigiendo el UGV y seleccionando objetivos. Sin embargo, lograr este nivel de autonomía es un desafío.

    Incluso en contextos civiles, la navegación terrestre autónoma enfrenta dificultades. Como señala Bondar, los coches autónomos todavía luchan con casos extremos en carreteras pavimentadas. Las aplicaciones militares presentan complejidades aún mayores, requiriendo sistemas que puedan operar en entornos con denegación de GPS, comunicaciones degradadas y guerra electrónica.

    A pesar de los desafíos del software, el hardware ya está demostrando ser útil con asistencia humana.

    Ucrania ya ha llevado a cabo su primer asalto solo con robots, una operación totalmente controlada de forma remota que involucró drones exploradores, bombarderos, FPV y docenas de UGV en tierra, llevada a cabo por la 13ª Brigada de la Guardia Nacional a finales del año pasado.

    Según Bondar, el objetivo principal de esta operación era obtener experiencia y desarrollar pautas tácticas. Las operaciones defensivas son más sencillas, con Ucrania utilizando sistemas de armas robóticos y torretas automatizadas para contrarrestar los ataques rusos.

    De cara al futuro, se están desarrollando robots humanoides, que podrían asumir el papel de un soldado. Sin embargo, incluso las máquinas con orugas enfrentan problemas de movilidad.

    Los informes de UGV que se atascan en el barro, la nieve, la arena y la hierba son comunes. Los robots con patas, como los perros robot, también han enfrentado desafíos. Bondar informa que los campos arados y el barro son problemáticos para los cuadrúpedos, lo que limita su utilidad en las líneas del frente.

    Los robots humanoides, en teoría, ofrecen una movilidad superior. Máquinas como Optimus de Tesla y Humanoid G1 de Unitree podrían ser útiles, pero su efectividad depende del desarrollo de la IA.

    La asequibilidad y la efectividad de los robots humanoides dependerán de las misiones que se les encomienden y de su fiabilidad.

    Por el momento, los 15.000 robots apoyarán a más de 800.000 humanos, con las máquinas principalmente en un papel de apoyo.

    Bondar sugiere que es probable que los UGV desempeñen un papel esencial en las tareas de apoyo peligrosas, reduciendo el riesgo para los soldados humanos. La proporción de robots a humanos puede cambiar rápidamente y, con el tiempo, es probable que la IA transforme los UGV en máquinas de combate más móviles y eficientes. La eliminación de humanos de las líneas del frente puede ser cuestión de tiempo.

    El ambicioso plan de Ucrania de desplegar 15.000 robots terrestres para 2025 responde a la necesidad de compensar la escasez de personal, aunque desafíos prácticos como la logística, el costo y la supervisión humana limitan su despliegue generalizado. Si bien los vehículos terrestres no tripulados (UGV) sobresalen en roles específicos como logística y defensa, la verdadera autonomía en el campo de batalla aún está a años de distancia, dependiendo de los avances en IA y robótica. A pesar de las limitaciones actuales, la experiencia de Ucrania sugiere un futuro donde los robots apoyarán cada vez más a los soldados humanos, transformando gradualmente la naturaleza de la guerra, un cambio que podría redefinir el equilibrio entre humanos y máquinas en el frente.