Blog

  • Primer Latido: Origen Embrionario en Lapso de Tiempo

    Científicos han capturado, por primera vez, imágenes de lapso de tiempo notables de la formación de un corazón en un embrión de ratón. Este avance revela cómo las células cardíacas se organizan espontáneamente en una forma similar a un corazón en las primeras etapas del desarrollo, ofreciendo potenciales nuevos conocimientos sobre los defectos cardíacos congénitos —defectos de nacimiento que afectan al corazón—, que son sorprendentemente comunes, impactando a casi uno de cada 100 bebés.

    Por primera vez, investigadores han capturado la formación de un corazón en imágenes extraordinarias de lapso de tiempo. Este logro innovador ofrece conocimientos sin precedentes sobre las primeras etapas del desarrollo del corazón en un embrión de ratón.

    Las imágenes revelan que las células cardíacas se organizan espontáneamente en una estructura similar a un corazón al principio del desarrollo. Este proceso notable, observado en tiempo real, desafía las suposiciones anteriores sobre cómo se forma el corazón.

    El autor principal del estudio, el Dr. Kenzo Ivanovitch, enfatiza la importancia de este logro. “Esta es la primera vez que hemos podido observar las células del corazón tan de cerca, durante tanto tiempo, durante el desarrollo de mamíferos”, afirmó. Esta observación a largo plazo fue posible gracias a la capacidad de cultivar embriones en una placa durante períodos prolongados.

    Los investigadores emplearon microscopía avanzada de lámina de luz para capturar los embriones en desarrollo. Esta técnica les permitió rastrear los embriones durante la gastrulación, una etapa crítica del desarrollo. Durante la gastrulación, el embrión forma líneas celulares distintas y establece los ejes corporales básicos.

    Después de la gastrulación, las células del músculo cardíaco comienzan a organizarse en un tubo. Este tubo se divide posteriormente en secciones, que eventualmente formarán las paredes y cámaras del corazón. Este es un proceso crucial, ya que los defectos durante esta etapa pueden conducir a defectos cardíacos congénitos.

    Para visualizar el proceso, el equipo utilizó marcadores fluorescentes para etiquetar las células del músculo cardíaco, conocidas como cardiomiocitos. Estos marcadores hicieron que las células brillaran en colores distintos.

    Se tomaron instantáneas cada dos minutos durante 40 horas, proporcionando una vista detallada de los movimientos de las células, las divisiones y la formación de un órgano primitivo. Esto permitió a los investigadores identificar la ubicación y el momento precisos de la aparición de las primeras células cardíacas.

    Los investigadores descubrieron que al principio de la gastrulación, alrededor de seis días después del desarrollo del embrión de ratón, las células específicamente destinadas a formar el corazón emergieron rápidamente. Estas células exhibieron un comportamiento altamente organizado, en lugar de un movimiento aleatorio.

    En lugar de moverse caóticamente, estas células siguieron caminos distintos. Algunas células contribuyeron a los ventrículos, las cámaras de bombeo del corazón, mientras que otras contribuyeron a las aurículas, donde la sangre entra al corazón.

    El Dr. Ivanovitch destaca las implicaciones de estos hallazgos. “Nuestros hallazgos demuestran que la determinación del destino cardíaco y el movimiento celular direccional pueden estar regulados mucho antes en el embrión de lo que sugieren los modelos actuales”. Esto sugiere que el proceso está más organizado de lo que se creía anteriormente.

    El estudio cambia fundamentalmente nuestra comprensión del desarrollo cardíaco. Revela que lo que parece ser una migración celular caótica está en realidad gobernada por patrones ocultos que aseguran la formación adecuada del corazón.

    Los conocimientos obtenidos de esta investigación podrían avanzar significativamente la comprensión y el tratamiento de los defectos cardíacos congénitos. Estos defectos afectan a casi uno de cada 100 bebés.

    Además, los hallazgos podrían acelerar el progreso en el cultivo de tejido cardíaco en el laboratorio para su uso en medicina regenerativa. Esto ofrece esperanza para desarrollar nuevos tratamientos para las enfermedades cardíacas.

    Los hallazgos del equipo de investigación se publicaron en el EMBO Journal, lo que hace que estos datos innovadores sean accesibles a la comunidad científica.

    Científicos capturaron por primera vez imágenes en lapso de tiempo de la formación del corazón en embriones de ratón, revelando un comportamiento celular sorprendentemente organizado. Este avance, logrado con microscopía de lámina de luz, desafía modelos existentes del desarrollo cardíaco y abre la posibilidad de mejorar la comprensión y el tratamiento de defectos cardíacos congénitos, así como avances en medicina regenerativa. ¿Podría esta observación detallada abrir nuevas vías para reparar corazones dañados y prevenir defectos de nacimiento?

  • VPNs “De por vida” canceladas tras adquisición

    Muchos servicios en línea ofrecen suscripciones “de por vida”, prometiendo acceso mientras vivas. Sin embargo, el caso reciente del proveedor de VPN VPNSecure pone de manifiesto lo engañoso que puede ser este término. Tras la adquisición de la empresa, los nuevos propietarios cancelaron abruptamente miles de suscripciones de por vida, alegando que el propietario anterior no reveló su existencia.

    En primer lugar, el problema central gira en torno a la naturaleza engañosa de las suscripciones “de por vida”, particularmente en el contexto de las adquisiciones empresariales. El artículo destaca inmediatamente la realidad común de que “de por vida” a menudo no equivale a la vida útil real del suscriptor, utilizando el caso de VPNSecure como un ejemplo principal. Esto prepara el escenario para una discusión sobre la fragilidad de tales acuerdos cuando las empresas cambian de manos.

    Posteriormente, la narrativa se centra en la situación específica de VPNSecure, un servicio VPN. La empresa fue adquirida en 2023, y los nuevos propietarios, InfiniteQuant Ltd, heredaron la tecnología, el dominio y la base de datos de clientes, pero, crucialmente, *no* las responsabilidades. Este es un detalle crítico, ya que constituye la base de sus acciones y justificaciones posteriores.

    Profundizando en la situación, el artículo detalla el descubrimiento por parte de los nuevos propietarios de miles de suscripciones de por vida, que no fueron reveladas por el propietario anterior. Esta falta de transparencia, según los nuevos propietarios, ejerció una presión significativa sobre sus recursos debido al alto volumen de soporte y la falta de ingresos generados por estas cuentas de larga data. El correo electrónico de “El Equipo VPN Secure” lo afirma explícitamente, enfatizando que estas suscripciones no proporcionaban “ningún ingreso sostenible”.

    En consecuencia, los nuevos propietarios inicialmente comenzaron a desactivar las cuentas de por vida que habían estado inactivas durante seis meses. Enmarcaron esto como “técnicamente justo”, aunque la medida desencadenó previsiblemente una ola de críticas negativas. Esto resalta la desconexión entre su percepción de justicia y las expectativas de los clientes.

    Además, el artículo luego pivota hacia la respuesta de los nuevos propietarios a la reacción negativa. Decidieron ofrecer un compromiso, reflejando el enfoque adoptado por Geni.com, donde las suscripciones de por vida se convirtieron en una suscripción de plazo limitado. VPNSecure ofreció un máximo de tres años a un precio reducido, proporcionando una ventana para que los antiguos suscriptores de por vida se volvieran a suscribir. Esto se presenta como una concesión, aunque limitada.

    Además, el artículo profundiza en los detalles de la adquisición. Ars Technica informa que el acuerdo fue un “acuerdo solo de activos”, lo que significa que InfiniteQuant Ltd adquirió solo los activos tangibles como la tecnología y la infraestructura, pero no la empresa en sí, sus contratos u obligaciones. Esto explica por qué los nuevos propietarios sintieron que no estaban obligados por los acuerdos de suscripción de por vida.

    Además, el artículo destaca la justificación de los nuevos propietarios para sus acciones. Afirman que mantuvieron las cuentas de por vida funcionando durante dos años a pesar de no recibir ingresos de ellas. También afirman que no demandaron al propietario anterior por retener la información porque una demanda habría sido demasiado costosa. Esto intenta retratar sus acciones como una elección difícil pero, en última instancia, necesaria.

    Sin embargo, el artículo también presenta evidencia que contradice las afirmaciones de los nuevos propietarios. Las búsquedas en Google revelan anuncios de suscripciones de por vida de VPNSecure tan recientes como 2021 y 2022, años después de la afirmación inicial de que las suscripciones se vendieron entre 2015 y 2017. Esto plantea interrogantes sobre la exactitud de sus declaraciones y el alcance real de su conocimiento con respecto a las suscripciones de por vida.

    Finalmente, el artículo concluye reiterando la lección principal: las suscripciones de por vida rara vez son realmente de por vida. Enfatiza el riesgo inherente asociado con tales acuerdos, particularmente cuando se adquiere una empresa. El caso de VPNSecure sirve como una advertencia, resultando en una baja puntuación de Trustpilot de 1.2 y numerosos comentarios negativos, lo que subraya las consecuencias del mundo real de las promesas incumplidas y la importancia de comprender la letra pequeña.

    Los nuevos dueños de VPNSecure cancelaron abruptamente las suscripciones “de por vida” tras adquirir la empresa, alegando que el propietario anterior no reveló su existencia. Estas suscripciones, vendidas desde 2015 hasta 2022, se convertirán ahora en planes de tres años, lo que provocó indignación generalizada entre los clientes y una caída en la calificación de Trustpilot. Esto sirve como un recordatorio: las ofertas “de por vida” rara vez están garantizadas y la debida diligencia es crucial antes de comprometerse con cualquier suscripción a largo plazo.

  • Actualización Bluetooth: Privacidad y Batería Mejoradas

    Una nueva actualización de Bluetooth está en camino y promete mejorar tanto tu privacidad como la duración de la batería de tu teléfono. La actualización Bluetooth 6.1, anunciada recientemente, introduce una función llamada Actualizaciones RPA Aleatorias que dificulta el rastreo de tu dispositivo y reduce la carga en el procesador de tu teléfono, lo que conduce a una mayor eficiencia.

    El núcleo del artículo gira en torno a una próxima actualización de Bluetooth, específicamente la versión 6.1, que promete mejoras significativas tanto en la privacidad del dispositivo como en la duración de la batería. Esta actualización, anunciada recientemente, está lista para brindar beneficios sustanciales a los usuarios de dispositivos iPhone y Android.

    En primer lugar, la principal ventaja de Bluetooth 6.1 radica en sus funciones de privacidad mejoradas. La innovación clave es la función “Actualizaciones RPA Aleatorias”. Esta función aborda una vulnerabilidad presente en el protocolo Bluetooth 6.0 actual. Bajo Bluetooth 6.0, los dispositivos cambian sus direcciones de identificación según un programa predecible y programado. Esta previsibilidad facilita relativamente a los actores maliciosos el seguimiento de los dispositivos. Sin embargo, la función de Actualizaciones RPA Aleatorias de Bluetooth 6.1 cambia esta dinámica.

    Específicamente, el nuevo protocolo introduce intervalos aleatorios para los cambios de dirección. Estos cambios ocurrirán a intervalos aleatorios, variando entre ocho y quince minutos, aunque esto se puede personalizar desde cada segundo hasta cada hora. Esta aleatorización elimina efectivamente el patrón predecible, lo que dificulta significativamente el seguimiento del dispositivo de un usuario y la explotación de sus datos de ubicación. Este es un paso crucial para proteger la privacidad del usuario en un mundo cada vez más conectado.

    Además, la actualización de Bluetooth 6.1 también ofrece un beneficio significativo en términos de duración de la batería. La implementación de las Actualizaciones RPA Aleatorias está diseñada para ser manejada por el chip Bluetooth del dispositivo en lugar de la unidad central de procesamiento (CPU). Este cambio arquitectónico es crucial para la eficiencia energética.

    Al descargar el proceso de actualización de la dirección al chip Bluetooth, se reduce la carga en la CPU del teléfono. Esto, a su vez, se traduce en una mejor eficiencia de la batería, lo que resulta en un menor consumo de batería. Esta es una mejora bienvenida para los usuarios que dependen en gran medida de sus teléfonos inteligentes durante todo el día.

    El artículo también aborda el cronograma para el lanzamiento de Bluetooth 6.1. Si bien el protocolo acaba de ser revelado, el artículo sugiere que podría aparecer en nuevos dispositivos tan pronto como este año.

    Por ejemplo, Apple, conocida por su rápida adopción de nuevas tecnologías, podría incorporar Bluetooth 6.1 en su gama iPhone 17. Sin embargo, el artículo también reconoce que 2026 podría ser un plazo más realista para la adopción generalizada de Bluetooth 6.1 tanto en dispositivos Apple como Android. Esto se debe al tiempo de retraso típico entre el anuncio de la nueva tecnología Bluetooth y su integración en los dispositivos de consumo.

    En conclusión, la actualización de Bluetooth 6.1 representa un avance significativo en la tecnología móvil. Ofrece una combinación convincente de privacidad mejorada y duración de la batería mejorada. Las actualizaciones de dirección aleatorias dificultarán el seguimiento de su dispositivo, mientras que el cambio al chip Bluetooth para las actualizaciones de dirección mejorará la eficiencia de la batería. Si bien la fecha exacta de lanzamiento sigue siendo incierta, los beneficios potenciales de Bluetooth 6.1 hacen que sea un desarrollo que vale la pena anticipar.

    Bluetooth 6.1, anunciado recientemente, presenta “Actualizaciones RPA Aleatorias” para mejorar la privacidad de los dispositivos al aleatorizar los cambios de dirección y aumentar la duración de la batería al trasladar la carga de procesamiento de la CPU al chip Bluetooth. Aunque la adopción es probable en 2026, el potencial para una mayor seguridad y eficiencia hace que sea una actualización que vale la pena anticipar.

  • Google sabía que Israel no podía ser controlado, revela informe.

    Antes de firmar su lucrativo acuerdo Project Nimbus con Israel, Google sabía que no podía controlar cómo la nación y su ejército usarían la poderosa tecnología de computación en la nube, revela un informe interno confidencial. El informe destaca la conciencia de Google sobre los riesgos involucrados en proporcionar tecnología avanzada a una nación acusada de violaciones de derechos humanos, y sugiere que la empresa podría enfrentar responsabilidad legal.

    Antes de firmar el acuerdo Proyecto Nimbus con Israel, Google era consciente de los riesgos potenciales asociados con el suministro de su tecnología de computación en la nube a una nación acusada de violaciones de derechos humanos. Un informe interno obtenido por The Intercept detallaba explícitamente la comprensión de Google de estos riesgos. Esta conciencia incluía la incapacidad de la empresa para monitorear o impedir por completo que Israel utilizara su software para dañar a los palestinos. Además, el contrato podría obligar a Google a obstruir las investigaciones penales de otras naciones sobre el uso de su tecnología por parte de Israel. El acuerdo también requería una estrecha colaboración con el establishment de seguridad israelí, incluyendo simulacros conjuntos e intercambio de inteligencia, algo sin precedentes en los acuerdos de Google con otras naciones.

    Un consultor externo que Google contrató para evaluar el acuerdo recomendó retener las herramientas de aprendizaje automático e inteligencia artificial de Israel debido a estos factores de riesgo. Esta recomendación destaca las preocupaciones en torno al posible uso indebido de la tecnología de Google. Sin embargo, el consejo del consultor parece haber sido ignorado, ya que la empresa siguió adelante con el contrato.

    La posible responsabilidad legal para Google es una preocupación significativa. Tres expertos en derecho internacional que hablaron con The Intercept declararon que el conocimiento de Google de los riesgos y su conocimiento previo de que no podía llevar a cabo la debida diligencia estándar pueden plantear responsabilidad legal para la empresa. Esto es particularmente relevante dada la situación de conflicto en curso en Gaza y las acusaciones de genocidio. Los accionistas también han presionado a la empresa para que realice la debida diligencia sobre si su tecnología contribuye a abusos contra los derechos humanos.

    León Castellanos-Jankiewicz, abogado del Instituto Asser de Derecho Internacional y Europeo, declaró que Google era consciente del riesgo de que sus productos pudieran ser utilizados para violaciones de derechos. También señaló que Google tendría una capacidad limitada para identificar y mitigar estos riesgos. Esto resalta los desafíos inherentes a la supervisión del uso de la tecnología una vez que está en manos del gobierno israelí.

    El contrato Proyecto Nimbus, con nombre en código “Selenita” internamente, fue visto como una oportunidad lucrativa para Google. El informe estimó que un centro de datos en la nube a medida para Israel podría generar 3.300 millones de dólares entre 2023 y 2027. Este incentivo financiero, sin embargo, se sopesó frente a los riesgos potenciales. La empresa reconoció que el acuerdo no estaba exento de peligro, ya que los Servicios en la Nube de Google podrían utilizarse para, o estar vinculados a, la facilitación de violaciones de derechos humanos, incluida la actividad israelí en Cisjordania, lo que resultaría en “daños a la reputación”.

    A pesar de estas preocupaciones, el contrato se estructuró de manera que limitaba las capacidades de supervisión de Google. Google solo tendría “una visibilidad muy limitada” de cómo se utilizaría su software. A la empresa “no se le permite restringir los tipos de servicios e información que el Gobierno (incluido el Ministerio de Defensa y la Agencia de Seguridad Israelí) elige migrar” a la nube. Esto obstaculizó gravemente la capacidad de Google para garantizar el uso responsable de su tecnología.

    El contrato también incluía disposiciones que podrían obstruir las investigaciones sobre el uso de la tecnología de Google. En caso de que Proyecto Nimbus caiga bajo escrutinio legal fuera de Israel, Google debe notificar al gobierno israelí lo antes posible y debe “Rechazar, Apelar y Resistir las Solicitudes de Acceso del Gobierno Extranjero”. Esto podría poner a la empresa en desacuerdo con los gobiernos extranjeros que intentan investigar Proyecto Nimbus.

    Además, el contrato requería que Google protegiera los datos gubernamentales confidenciales, incluso si eso significaba violar la ley. Google no debe responder a las solicitudes de divulgación de las fuerzas del orden sin consultar y, en algunos casos, obtener la aprobación de las autoridades israelíes, lo que podría hacer que la empresa incumpla órdenes o leyes legales internacionales. Esto demuestra hasta qué punto el contrato prioriza los intereses del gobierno israelí sobre las posibles obligaciones legales.

    El acuerdo Nimbus también incluía un compromiso a largo plazo, con la capacidad de Israel de extender el contrato hasta 23 años, con una capacidad limitada para que Google se retire. Este compromiso a largo plazo solidificó aún más la relación entre Google y el gobierno israelí, lo que dificulta que Google aborde cualquier preocupación o abuso que pueda surgir.

    El informe inicial señaló que el jefe de Google Cloud, Thomas Kurian, aprobaría personalmente el contrato con pleno entendimiento y aceptación de estos riesgos antes de que la empresa presentara su propuesta de contrato. Esto sugiere que la decisión de seguir adelante con el acuerdo se tomó en los niveles más altos de la empresa, a pesar de los riesgos conocidos.

    Los documentos internos también revelan el alcance de la colaboración entre Google y el Estado de seguridad israelí. La creación de un Equipo Clasificado dentro de Google, compuesto por ciudadanos israelíes con autorizaciones de seguridad, fue diseñado para “recibir información de [Israel] que no puede ser compartida con [Google]”. Este equipo participaría en capacitación especializada con agencias de seguridad gubernamentales, así como en simulacros y escenarios conjuntos adaptados a amenazas específicas. Este nivel de cooperación no tenía precedentes en el momento del informe.

    La cuestión de si Google podría rescindir el contrato Nimbus por violar las reglas de la empresa o la ley sigue sin estar clara. Si bien Google afirma que Proyecto Nimbus está sujeto a sus términos de uso estándar, los documentos del gobierno israelí contradicen esto, mostrando que el uso de los servicios de Proyecto Nimbus no está restringido por los términos normales de Google, sino por una política secreta modificada. Los términos de uso modificados de Proyecto Nimbus son confidenciales.

    El informe interno sugiere que la Política de Uso Aceptable de Google está orientada a bloquear contenido ilegal, como imágenes sexuales o virus informáticos, y no a frustrar los abusos contra los derechos humanos. El segundo informe interno también dice que “si hay un conflicto entre los términos de Google” y los requisitos del gobierno, “que son extensos y a menudo ambiguos”, entonces “se interpretarán de la manera que sea más ventajosa para el cliente”. Esto disminuye aún más la capacidad de Google para hacer cumplir sus propias políticas y proteger contra posibles abusos.

    El derecho internacional es ambiguo cuando se trata de la responsabilidad que Google podría enfrentar por suministrar software a un gobierno ampliamente acusado de cometer un genocidio. La culpabilidad legal se vuelve más ambigua cuanto más lejos se está del acto real de matar. Google no proporciona armas a los militares, pero proporciona servicios informáticos que permiten que los militares funcionen; su función final es, por supuesto, el uso letal de esas armas.

    Las demandas civiles son otra opción. Castellanos-Jankiewicz imaginó un escenario en el que un demandante hipotético con acceso al sistema judicial de EE. UU. podría demandar a Google por Proyecto Nimbus por daños monetarios, por ejemplo.

    El acuerdo Nimbus se firmó antes de que Hamás atacara a Israel el 7 de octubre de 2023, lo que encendió una guerra que ha matado a decenas de miles de civiles y ha reducido Gaza a escombros. Si el riesgo de uso indebido de una tecnología aumenta con el tiempo, la empresa debe reaccionar en consecuencia. La ignorancia y la omisión de cualquier forma de reacción ante un riesgo creciente en relación con el uso del producto conducen a un mayor riesgo de responsabilidad para la empresa.

    Google dice que se adhiere a los Principios Rectores de las Naciones Unidas sobre las Empresas y los Derechos Humanos. Entre estas responsabilidades corporativas se encuentra “la evaluación de los impactos reales y potenciales en los derechos humanos, la integración y la actuación sobre los hallazgos, el seguimiento de las respuestas y la comunicación de cómo se abordan los impactos”.

    La junta directiva de Alphabet, la entidad matriz de Google, recomendó recientemente votar en contra de una propuesta de los accionistas para realizar una auditoría independiente por parte de terceros de los procesos que la empresa utiliza “para determinar si el uso de productos y servicios por parte de los clientes con fines de vigilancia, censura y/o militares contribuye a daños a los derechos humanos en zonas afectadas por conflictos y de alto riesgo”. La propuesta cita, entre otras áreas de riesgo, el contrato Proyecto Nimbus. Al rechazar la propuesta, la junta promocionó sus procesos de supervisión de derechos humanos existentes y cita los Principios Rectores de la ONU y los “Principios de IA” de Google como razón por la que no es necesaria una supervisión adicional.

    Google sabía que el Proyecto Nimbus corría el riesgo de facilitar violaciones de derechos humanos en Israel, pero siguió adelante, priorizando las ganancias sobre la ética. Se avecina responsabilidad legal, y la falta de transparencia y control de la empresa plantea serias dudas sobre la responsabilidad corporativa en zonas de conflicto. Apoye el periodismo independiente que responsabiliza al poder: la democracia depende de ello.

  • Alas de aves: evolución para enfriar, no solo volar

    Durante siglos, los científicos han observado que los animales en climas más cálidos tienden a tener extremidades más largas, un patrón conocido como la Regla de Allen, que se cree está relacionado con la regulación de la temperatura. Un nuevo estudio, que utiliza un sistema de visión por computador llamado “Skelevision”, confirma que este principio se aplica a las alas de las aves, reformulando nuestra comprensión de su evolución para incluir las exigencias de la regulación del calor junto con la mecánica del vuelo.

    Durante siglos, los científicos han observado la Regla de Allen, el fenómeno de que los animales en climas más cálidos tienen extremidades más largas. Este patrón, tradicionalmente vinculado a la regulación de la temperatura corporal, ha sido ahora elucidado aún más a través de un estudio innovador.

    Específicamente, un nuevo sistema de visión por computadora ha confirmado que la Regla de Allen se aplica a las alas de las aves, reformulando nuestra comprensión de su evolución. Esta investigación, publicada en *Global Ecology and Biogeography*, destaca el papel de la regulación de la temperatura, además de la mecánica del vuelo, en la configuración de la evolución de las alas.

    El estudio, una colaboración de seis años entre ecologistas e informáticos de la Universidad de Michigan y la Universidad de Nueva York, utilizó un sofisticado sistema de IA llamado “Skelevision”. Este sistema emplea inteligencia artificial para identificar y medir automáticamente los huesos de las aves a partir de fotografías, proporcionando un enfoque novedoso para el análisis esquelético.

    David Fouhey, autor principal y profesor asistente en la NYU, explicó el núcleo de la función de Skelevision: “Usamos una red neuronal profunda para detectar huesos individuales en imágenes de especímenes, identificar su tipo y crear un contorno digital preciso de cada uno”. Este avance tecnológico ha agilizado significativamente el proceso de análisis de esqueletos de aves.

    Antes de Skelevision, los investigadores se enfrentaban a un proceso laborioso, que normalmente estudiaba los rasgos esqueléticos en tamaños de muestra pequeños. Esto implicaba manipular manualmente huesos frágiles y medir cada elemento con calibradores, lo que creaba un sesgo hacia los rasgos externos fácilmente medibles.

    Brian Weeks, autor principal y profesor asistente en la Universidad de Michigan, enfatizó la importancia de las mediciones esqueléticas a gran escala: “Recopilar mediciones esqueléticas a gran escala nos permite responder a grandes preguntas sobre cómo las especies evolucionan e interactúan con sus entornos”. El nuevo sistema supera las limitaciones de los métodos anteriores.

    Los investigadores desarrollaron un sistema completo de extremo a extremo, que integra tanto hardware especializado como software de IA sofisticado. Esto incluyó el hardware de imagen físico, con una cámara de alta resolución, y el software de IA para analizar las fotografías.

    Este enfoque integrado redujo drásticamente el tiempo de manipulación de especímenes, de 15-30 minutos a aproximadamente un minuto cada uno. La eficiencia de Skelevision ya se demostró en un artículo de 2023 en *Methods in Ecology and Evolution*, mostrando su precisión en 12.450 especímenes de aves.

    Esta eficiencia permitió al equipo analizar las mediciones de los huesos de las alas de 1.520 especies de aves paseriformes en 80 familias, abarcando todos los continentes excepto la Antártida. La principal fuente de especímenes fue el Museo de Zoología de la Universidad de Michigan, complementado con especímenes del Museo Field de Historia Natural de Chicago.

    Weeks elaboró ​​además sobre las implicaciones de los hallazgos: “Los huesos de las alas juegan un papel único en la termorregulación”. Explicó que durante el vuelo, estos huesos son cruciales para disipar el calor generado por los músculos del vuelo.

    El estudio sugiere que el patrón observado de huesos de alas más largos en climas más cálidos está impulsado principalmente por la necesidad de un enfriamiento eficiente, en lugar de la conservación del calor. Esto desafía el enfoque tradicional en la mecánica del vuelo por sí sola.

    Weeks destacó las implicaciones más amplias: “Incluso rasgos tan críticos como las alas, que tradicionalmente hemos estudiado solo por la mecánica del vuelo, están siendo moldeados por las demandas de la termorregulación. Esto tiene importantes implicaciones sobre cómo las aves podrían responder al cambio climático”. La investigación proporciona una nueva perspectiva sobre la adaptación aviar.

    La tecnología ahora se está expandiendo con un sistema de escaneo 3D avanzado para medir propiedades adicionales, como el volumen y el área de superficie. Además, los investigadores han puesto su conjunto de datos y código de código abierto a disposición del público.

    La investigación fue financiada por la Fundación David y Lucile Packard. Los autores del estudio incluyen a Christina Harvey, Joseph A. Tobias, Catherine Sheard y Zhizhuo Zhou, que representan instituciones como la Universidad de California Davis, el Imperial College London, la Universidad de Bristol y la Universidad de Michigan y la Universidad Carnegie Mellon, respectivamente.

    Un nuevo sistema de visión impulsado por IA, “Skelevision”, ha confirmado la Regla de Allen en las alas de las aves: extremidades más largas en climas cálidos. El estudio revela que la termorregulación, y no solo la mecánica del vuelo, ha influido significativamente en la evolución aviar. El análisis de miles de especímenes de museo encontró huesos de alas más largos en regiones más cálidas, indicando un papel crucial en la disipación del calor durante el vuelo. Este hallazgo destaca la importancia de considerar los impactos del cambio climático en los rasgos aviares fundamentales y subraya el potencial de la IA para obtener nuevos conocimientos a partir de datos biológicos existentes.

  • IA en el Trabajo: Riesgo Reputacional Oculto

    Nueva investigación de la Universidad de Duke sugiere que el uso de herramientas de IA como ChatGPT en el trabajo podría tener un inconveniente oculto: podría impactar negativamente en tu reputación profesional. Un estudio reciente publicado en las Actas de la Academia Nacional de Ciencias (PNAS) encontró que colegas y gerentes podrían percibir a los empleados que usan IA como menos competentes y motivados, independientemente de su demografía.

    Según una investigación reciente de la Universidad de Duke, la integración de herramientas de IA en el lugar de trabajo presenta una paradoja compleja. Si bien la IA generativa puede mejorar potencialmente la productividad, su uso puede dañar inadvertidamente la reputación profesional de un individuo. Esta naturaleza de doble filo de la adopción de la IA forma el argumento central del estudio publicado en las *Proceedings of the National Academy of Sciences (PNAS)*.

    El estudio, realizado por los investigadores Jessica A. Reif, Richard P. Larrick y Jack B. Soll de la Escuela de Negocios Fuqua de Duke, explora las consecuencias sociales del uso de herramientas de IA como ChatGPT, Claude y Gemini en el trabajo. Sus hallazgos indican que los empleados que utilizan estas herramientas se enfrentan a juicios negativos con respecto a su competencia y motivación, tanto de colegas como de gerentes. Esta “penalización de evaluación social” es una conclusión clave de la investigación.

    El equipo de Duke empleó cuatro experimentos separados, con más de 4.400 participantes, para examinar a fondo las percepciones en torno a los usuarios de herramientas de IA. La investigación se centró tanto en las evaluaciones anticipadas como en las reales de las personas que aprovechan la asistencia de la IA. El patrón consistente reveló un sesgo contra aquellos que reciben ayuda de la IA, lo cual es un hallazgo significativo.

    Uno de los aspectos más preocupantes de este estigma social, como destacan los investigadores, es su universalidad. Las percepciones negativas asociadas con el uso de la IA no se limitaron a grupos demográficos o profesionales específicos. Los autores afirmaron explícitamente en su artículo: “Encontramos que ninguno de estos atributos demográficos objetivo influye en el efecto de recibir ayuda de la IA en las percepciones de pereza, diligencia, competencia, independencia o seguridad en sí mismo”. Esto sugiere una estigmatización generalizada del uso de la IA en varios grupos.

    El primer experimento, diseñado por el equipo de Duke, implicó que los participantes se imaginaran usando una herramienta de IA o una herramienta convencional de creación de paneles en el trabajo. Los resultados revelaron que aquellos en el grupo de IA anticipaban ser juzgados como más perezosos, menos competentes, menos diligentes y más fácilmente reemplazables en comparación con aquellos que usaban tecnología tradicional. Además, informaron una mayor renuencia a revelar su uso de IA tanto a colegas como a gerentes, lo que destaca el costo social percibido.

    El segundo experimento proporcionó evidencia concreta para respaldar las anticipaciones iniciales. A los participantes se les presentaron descripciones de empleados y se les pidió que los evaluaran. Los resultados mostraron consistentemente que las personas que recibieron ayuda de la IA fueron calificadas como más perezosas, menos competentes, menos diligentes, menos independientes y menos seguras de sí mismas que aquellas que recibieron asistencia similar de fuentes no pertenecientes a la IA o ninguna ayuda en absoluto. Esto confirma la existencia de una penalización social tangible asociada con el uso de la IA en el lugar de trabajo.

    La investigación subraya un dilema crítico para las personas que consideran la adopción de herramientas de IA. Si bien la IA puede, sin duda, aumentar la productividad, su uso también puede desencadenar consecuencias sociales negativas, lo que podría afectar el avance profesional y la posición profesional. Los hallazgos del estudio sugieren que, a medida que la IA se vuelve más prevalente en el lugar de trabajo, las personas deben considerar cuidadosamente las posibles compensaciones entre las ganancias de productividad y las percepciones sociales asociadas con el uso de estas poderosas herramientas.

    Nueva investigación de la Universidad Duke revela una “penalización de evaluación social” por usar herramientas de IA como ChatGPT en el trabajo, percibiendo colegas y gerentes a los usuarios como menos competentes y motivados, sin importar la demografía. Aunque la IA aumenta la productividad, este costo social oculto requiere una cuidadosa consideración a medida que se expande la adopción de la IA. Es crucial explorar estrategias para mitigar este sesgo y asegurar una integración equitativa y positiva de la IA en el lugar de trabajo.

  • VPNSecure Cancela Suscripciones Vitalicias, Desata Furia

    Los nuevos propietarios del proveedor de VPN VPNSecure han generado controversia al cancelar abruptamente las suscripciones de por vida, alegando que desconocían su existencia durante la adquisición. La empresa, ahora propiedad de InfiniteQuant Ltd, afirma que el propietario anterior no reveló la existencia de miles de estas suscripciones, que se vendieron a través de plataformas como StackSocial, y que mantenerlas suponía una carga para los recursos de la empresa.

    Los nuevos propietarios del proveedor de VPN VPNSecure se enfrentan a una importante reacción negativa tras su decisión de cancelar las suscripciones de por vida. Esta medida ha enfurecido a los clientes que previamente habían pagado por estas suscripciones, esperando acceso continuo al servicio. El núcleo del problema radica en la afirmación de los nuevos propietarios de que desconocían la existencia de estos acuerdos de por vida cuando adquirieron la empresa.

    Específicamente, las quejas comenzaron a surgir en línea en marzo con respecto a la falta de funcionalidad de las suscripciones de por vida. A esto le siguió rápidamente un anuncio oficial de VPNSecure.

    La primera respuesta pública que Ars Technica descubrió llegó el 28 de abril, cuando los titulares de suscripciones de por vida recibieron un correo electrónico del proveedor de VPN. Este correo electrónico indicaba que las cuentas con acuerdos de por vida habían sido desactivadas a partir del 28 de abril de 2025. El correo electrónico, firmado por “El equipo de VPN Secure”, explicaba la justificación de esta decisión.

    El correo electrónico profundizaba en la situación, señalando que VPNSecure había desactivado previamente las cuentas con suscripciones de por vida que habían estado inactivas durante más de seis meses. El mensaje también destacaba que la adquisición se produjo en 2023, abarcando la tecnología, el dominio y la base de datos de clientes, pero crucialmente, no las responsabilidades.

    El correo electrónico de VPNSecure declaró explícitamente que el propietario anterior no había revelado la venta de miles de acuerdos de por vida a través de plataformas como StackSocial. Los nuevos propietarios afirmaron haber descubierto esto solo meses después, lo que, según ellos, tensionó sus recursos y condujo a un alto volumen de soporte de usuarios cuyas suscripciones no proporcionaban ingresos continuos para mantener el servicio.

    Para mitigar el impacto en los usuarios afectados, VPNSecure ofreció nuevas suscripciones con descuento. Estas incluían opciones como $1.87 por un mes (en lugar de $9.95), $19 por un año (en lugar de $79.92) o $55 por tres años (en lugar de $107.64). Estas ofertas estuvieron disponibles hasta el 31 de mayo, como se indicaba en el correo electrónico.

    Además, los usuarios informaron haber recibido un correo electrónico de seguimiento esta semana de VPNSecure, proporcionando detalles adicionales sobre la decisión. Capturas de pantalla de este correo electrónico, compartidas en Reddit, indicaron que la adquisición por parte de InfiniteQuant Ltd se estructuró como “un acuerdo solo de activos”. Esto sugiere que los nuevos propietarios adquirieron activos específicos de VPNSecure, pero no la empresa completa, incluidos sus contratos y obligaciones existentes.

    Para añadir confusión, un representante de VPNSecure afirmó en el sitio de reseñas Trustpilot que los actuales propietarios “no obtuvieron acceso a la base de datos de clientes hasta meses” después de la adquisición. Esta declaración respalda aún más la afirmación de que los nuevos propietarios desconocían inicialmente las suscripciones de por vida.

    En esencia, según los propietarios de VPNSecure, la adquisición les otorgó la tecnología, la marca y la infraestructura, pero no la empresa en sí, sus contratos, pagos u obligaciones de los propietarios anteriores. Este es el argumento central que se utiliza para justificar la cancelación de las suscripciones de por vida.

    Los nuevos dueños de VPNSecure, InfiniteQuant Ltd, cancelaron las suscripciones de por vida, alegando desconocimiento de su existencia durante la adquisición de 2023, descrita como una transacción de “solo activos”. Justifican la decisión en la carga que representaban las cuentas LTD y la falta de ingresos. Se ofrecen descuentos a los usuarios afectados para nuevas suscripciones, pero el cambio abrupto ha generado una fuerte reacción negativa, planteando dudas sobre la ética de adquirir una empresa sin considerar plenamente los compromisos existentes con los clientes.

  • Jamie Lee Curtis vs. Zuckerberg: IA Falsas

    Jamie Lee Curtis actuó rápidamente contra Meta, contactando directamente al CEO Mark Zuckerberg después de que un comercial generado por IA utilizando su imagen apareciera sin su autorización. Los anuncios, que Curtis calificó de “tonterías”, fueron retirados después de su apelación pública en Instagram.

    Jamie Lee Curtis, una actriz prominente, tomó medidas directas contra Meta, la empresa matriz de Facebook e Instagram, para abordar el uso no autorizado de su imagen en un anuncio generado por IA. Este incidente resalta las crecientes preocupaciones en torno al uso indebido de la inteligencia artificial y el potencial de los deepfakes para dañar reputaciones y erosionar la confianza.

    La frustración de Curtis era palpable, como lo demuestra su apelación directa al CEO de Meta, Mark Zuckerberg. Declaró explícitamente que había “pasado por todos los canales adecuados” para que se eliminara el anuncio falso, lo que indica un intento previo, sin éxito, de resolver el problema a través de los procedimientos estándar. Esto sugiere un problema sistémico dentro de las políticas de moderación de contenido de Meta, donde el uso no autorizado de la imagen de un individuo puede no ser abordado adecuadamente.

    El anuncio en cuestión era una publicidad generada por IA que utilizaba imágenes de una entrevista que Curtis concedió a la presentadora de MSNBC, Stephanie Ruhle. El anuncio, según Curtis, presentaba “palabras nuevas y falsas puestas en [su] boca”. Esta manipulación de su imagen y voz, sin su consentimiento, es una clara violación de sus derechos y potencialmente perjudicial para su reputación profesional.

    La publicación de Curtis en Instagram, que incluía una etiqueta directa a Zuckerberg, demuestra su enfoque proactivo para resolver el problema. Expresó su frustración con la situación, afirmando: “Se ha llegado a esto @zuck”. Esta apelación directa, junto con su gran número de seguidores en las redes sociales, 6,1 millones, probablemente amplificó la presión sobre Meta para que tomara medidas.

    La elección de la actriz de “Integrity” de Aretha Franklin como banda sonora para su publicación subraya aún más su compromiso con la verdad y la autenticidad. Esta selección refuerza su mensaje de que el uso no autorizado de su imagen socava su marca establecida, que se basa en la honestidad y la comunicación directa.

    La respuesta de Meta, a través del portavoz Andy Stone, confirmó que los anuncios violaban las políticas de la empresa y fueron posteriormente eliminados. Esta rápida acción, probablemente impulsada por la protesta pública de Curtis, sugiere que la participación directa de una figura de alto perfil puede influir en las prácticas de moderación de contenido de la empresa.

    La preocupación de Curtis se extiende más allá del problema inmediato del anuncio falso. Expresó su preocupación de que el uso indebido de su imagen “disminuye mis oportunidades de realmente decir mi verdad”. Esto destaca las implicaciones más amplias del contenido generado por IA, que puede erosionar la confianza en los medios y dificultar que las personas controlen sus propias narrativas.

    La referencia de la actriz a su trabajo pasado como portavoz pagada de marcas como el yogur Activia, las medias L’eggs y Hertz, subraya la importancia de su marca e imagen. Este trabajo pasado es un testimonio de su larga trayectoria profesional y del valor de su respaldo. El uso no autorizado de su imagen podría dañar potencialmente sus relaciones con estas marcas y futuras oportunidades.

    La decisión de Curtis de desactivar su cuenta de X/Twitter en noviembre, citando la Oración de la Serenidad, ilustra aún más su enfoque para navegar por las complejidades del panorama digital. Esta decisión sugiere una preferencia por plataformas donde pueda mantener un mayor control sobre su imagen y mensaje.

    El artículo también proporciona una breve descripción de la carrera de Curtis, incluyendo sus papeles en la franquicia “Halloween”, “Mentiras Verdaderas” y “Todo a la vez en todas partes”, por la que ganó un Oscar. Este contexto enfatiza su estatus como una figura establecida y respetada en la industria del entretenimiento, lo que hace que el uso no autorizado de su imagen sea aún más atroz.

    En su carta abierta a Zuckerberg, Curtis expresó su esperanza de que la participación directa animara a Meta a tomar medidas. Declaró: “Me han dicho que si te lo pido directamente, tal vez animes a tu equipo a vigilarlo y eliminarlo”. Esto refleja un enfoque pragmático, reconociendo las limitaciones de los canales existentes y la posible influencia de una apelación directa al liderazgo de la empresa.

    Jamie Lee Curtis apeló directamente a Mark Zuckerberg en Instagram para eliminar un anuncio generado por IA que usaba su imagen y declaraciones falsas. Meta retiró rápidamente los anuncios tras su petición pública, lo que subraya la creciente preocupación por el mal uso de imágenes de celebridades por la IA y la necesidad de políticas de plataforma más estrictas. La rápida respuesta resalta la urgencia de abordar los deepfakes generados por IA y proteger las identidades digitales individuales.

  • Reforma de la FCC: Simplificación, Recortes y Ajuste Regulatorio

    El comisionado de la FCC, Brendan Carr, está impulsando cambios significativos dentro de la Comisión Federal de Comunicaciones, incluyendo la simplificación de los procesos de licencias y la reducción de regulaciones. Estas propuestas, defendidas por el comisionado Nathan Simington y respaldadas por una agenda republicana más amplia, buscan modernizar la agencia y abordar ineficiencias percibidas, lo que podría remodelar el futuro de la regulación de los medios e impactar la dotación de personal y las prioridades de la FCC.

    Simington, un comisionado de la FCC, abogó por cambios significativos dentro de la agencia, centrándose principalmente en la optimización de procesos y la reasignación de recursos. Propuso una revisión general de los procedimientos de licencias de la FCC, con el objetivo de modernizar y agilizar el proceso.

    Específicamente, Simington destacó las ineficiencias del procesamiento manual de las solicitudes de licencia. Argumentó que este método “consume vastas horas de personal e introduce demoras innecesarias en mercados que prosperan con la velocidad y la innovación”. Para abordar esto, sugirió un cambio hacia la automatización.

    El plan de Simington implicaba “flujos de trabajo automatizados” como el predeterminado para “licencias no contenciosas”. Creía que “al implementar sistemas de revisión inteligente y software de procesamiento, la FCC podría reducir drásticamente el tiempo y la mano de obra involucrados en la emisión de licencias estándar”. Este cambio propuesto hacia la automatización subraya su compromiso con la eficiencia y la capacidad de respuesta dentro de la FCC.

    Además, Simington propuso una reasignación estratégica del personal de la FCC. Apuntó específicamente a la Oficina de Medios, sugiriendo que los empleados fueran trasladados “a otras oficinas dentro de la FCC, como la Oficina Espacial, que están lidiando con la escasez de personal en sectores de alto crecimiento y alta necesidad”. Esto indica el deseo de trasladar recursos a áreas consideradas más críticas y relevantes para el panorama tecnológico en evolución.

    La justificación para apuntar a la Oficina de Medios se deriva de la evaluación de Simington de sus responsabilidades actuales. Observó que gran parte del “trabajo de la Oficina de Medios se concentra en la regulación de los medios de radiodifusión tradicionales, específicamente, la televisión y la radio de transmisión, un sector que continúa contrayéndose en relevancia”. Esta observación sugiere la creencia de que la Oficina de Medios tiene un exceso de personal en relación con su carga de trabajo actual y el cambiante panorama mediático.

    Simington reconoció que sus propuestas podrían presentar algunos conflictos internos. Por ejemplo, recortar la Oficina de Medios podría parecer contradecir su propia propuesta de regular las tarifas pagadas por las estaciones locales a las cadenas de televisión. Además, también podría chocar con los esfuerzos del presidente de la FCC, Brendan Carr, para regular el contenido de noticias percibido como sesgado contra los republicanos.

    A pesar de estos posibles conflictos, Simington mantuvo que la Oficina de Medios tiene “un exceso de personal significativo en relación con sus responsabilidades actuales”. Esta postura subraya su convicción de que los cambios propuestos son necesarios para optimizar las operaciones de la FCC y adaptarse al cambiante panorama tecnológico.

    El nombramiento de Simington como comisionado de la FCC se produjo al final del primer mandato de Trump en 2020. Reemplazó al republicano Michael O’Rielly, quien había provocado la desaprobación de Trump al oponerse a una represión contra los sitios web de redes sociales. Este contexto destaca la dinámica política en juego dentro de la FCC y el potencial de cambios de política basados en la composición de la comisión.

    La composición actual de la FCC, con dos republicanos y dos demócratas, impide cualquier votación importante que requiera una mayoría republicana. Sin embargo, este equilibrio está a punto de cambiar. El comisionado demócrata Geoffrey Starks tiene previsto marcharse en la primavera, y se espera que la candidata republicana Olivia Trusty sea confirmada por el Senado.

    Se prevé que el cambio anticipado en la composición de la FCC allane el camino para cambios regulatorios significativos. Se espera que la agencia recorte numerosas regulaciones una vez que haya una mayoría republicana. Esto se alinea con el procedimiento “Eliminar, Eliminar, Eliminar” del presidente Carr, que tiene como objetivo eliminar tantas reglas como sea posible.

    Además, el Congreso también está presionando para que se reduzcan los costos de la FCC. El Senado votó para acabar con un intento de la era Biden de utilizar E-Rate para subvencionar puntos de acceso Wi-Fi para escolares que carecen de acceso fiable a Internet para completar sus tareas. Esta acción subraya aún más la tendencia más amplia hacia el conservadurismo fiscal y la optimización regulatoria dentro de la agencia.

    El comisionado de la FCC, Brendan Simington, propone cambios importantes, incluyendo la agilización de licencias mediante la automatización, la reasignación de personal de la Oficina de Medios para abordar la escasez en sectores en crecimiento como la tecnología espacial, y la posible reducción de regulaciones. Estas propuestas se alinean con la iniciativa “Borrar, Borrar, Borrar” del presidente Carr y la presión del Congreso para reducir costos. Con una posible mayoría republicana en el horizonte, la FCC se prepara para un período de desregulación que podría remodelar la política de medios. Una mayor exploración del procedimiento “Borrar, Borrar, Borrar” proporcionaría información valiosa sobre las regulaciones específicas que se pretenden eliminar y su impacto potencial.

  • AI: Entrenamiento en la mira por derechos de autor. Meta, bajo escrutinio.

    La Oficina de Derechos de Autor de EE. UU. ha indicado una posible oposición a que empresas de IA como Meta utilicen material con derechos de autor obtenido ilegalmente, como a través de torrents, para entrenar sus modelos de IA. Esto ocurre mientras Meta enfrenta una demanda de autores que alegan que su tecnología de IA infringe sus derechos de autor, y las observaciones de la Oficina de Derechos de Autor sugieren que los tribunales podrían examinar cada vez más la práctica de utilizar contenido pirateado para el desarrollo de IA, particularmente cuando compite con los mercados existentes.

    La Oficina de Derechos de Autor parece estar adoptando una postura crítica contra el uso de materiales con derechos de autor por parte de Meta, particularmente aquellos obtenidos a través de torrenting, para entrenar sus modelos de IA. Esta oposición es evidente en las recientes observaciones de la Oficina de Derechos de Autor sobre los límites del uso justo, especialmente en el contexto del desarrollo de la IA.

    Específicamente, la Oficina de Derechos de Autor expresó su preocupación de que “hacer un uso comercial de vastos conjuntos de obras con derechos de autor para producir contenido expresivo que compite con ellas en los mercados existentes, especialmente cuando esto se logra a través de acceso ilegal, va más allá de los límites establecidos del uso justo”. Esta declaración implica directamente que la adquisición no autorizada de obras con derechos de autor, como a través de torrenting, debilita significativamente cualquier defensa de uso justo.

    Además, el informe de la Oficina de Derechos de Autor sugiere una posible alineación con los tribunales sobre la cuestión de las empresas de IA que utilizan contenido pirateado o al que se accede ilegalmente con fines de capacitación. Esta alineación es crucial porque indica una tendencia legal más amplia contra la práctica.

    La perspectiva del juez Chhabria sobre las actividades de torrenting de Meta en el caso de los autores de libros, descrita como “un poco desordenada”, refuerza aún más esta visión negativa. La recomendación de la Oficina de Derechos de Autor de que “el uso consciente de un conjunto de datos que consta de obras pirateadas o a las que se ha accedido ilegalmente debería ir en contra del uso justo sin ser determinante” subraya la importancia de la fuente de los datos de entrenamiento. Si bien no es una sentencia definitiva contra el uso justo, la oficina claramente considera que el método de adquisición de los datos es un factor significativo.

    La posición de la Oficina de Derechos de Autor se consolida aún más por su énfasis en las implicaciones negativas del uso de materiales pirateados. La oficina afirma claramente que “obtener acceso ilegal” a obras con derechos de autor “sí afecta al carácter del uso”. Esto implica que el acto de adquirir material con derechos de autor por medios ilegales, como torrenting, es un factor significativo para evaluar la equidad de su uso posterior.

    La Oficina de Derechos de Autor va un paso más allá, argumentando que “entrenar con material pirateado o al que se ha accedido ilegalmente va un paso más allá” que simplemente usar obras con derechos de autor “a pesar de la denegación de permiso de los propietarios”. Esta distinción es importante porque resalta el daño adicional causado por la adquisición ilegal del material.

    Además, la oficina sugiere que si los autores pueden demostrar que los modelos de IA entrenados con obras pirateadas resultaron en pérdidas de ventas, una defensa de uso justo podría fracasar. Esto introduce un elemento económico crucial al debate, lo que sugiere que el potencial de daño al mercado causado por los modelos de IA entrenados con contenido pirateado es una consideración clave.

    La Oficina de Derechos de Autor aborda explícitamente el daño potencial al mercado causado por el uso de contenido pirateado. La oficina escribió: “El uso de colecciones pirateadas de obras con derechos de autor para construir una biblioteca de entrenamiento, o la distribución de dicha biblioteca al público, dañaría el mercado de acceso a esas Obras”. Esta declaración destaca el potencial de que los modelos de IA entrenados con datos pirateados socaven el mercado de copias legítimas de las obras con derechos de autor.

    La oficina continúa: “Y donde el entrenamiento permite que un modelo genere copias textuales o sustancialmente similares de las obras en las que se entrenó, y esas copias son de fácil acceso para los usuarios finales, pueden sustituir a las ventas de esas obras”. Esto subraya la preocupación de que los modelos de IA podrían competir directamente con las obras originales, dañando aún más el mercado de material con derechos de autor.

    Finalmente, es probable que la perspectiva de la Oficina de Derechos de Autor sea frustrante para Meta, especialmente dados sus esfuerzos por excluir pruebas relacionadas con sus actividades de torrenting. La postura de la oficina es clara: “la copia de obras expresivas de fuentes piratas para generar contenido sin restricciones que compite en el mercado, cuando la licencia está razonablemente disponible, es poco probable que califique como uso justo”. Esto sugiere que las acciones de Meta, si se demuestran, probablemente enfrentarán importantes desafíos legales.

    La Oficina de Derechos de Autor se opone firmemente a que empresas de IA como Meta utilicen material con derechos de autor obtenido ilegalmente, como torrents, para el entrenamiento de IA, argumentando que excede los límites del uso justo y podría perjudicar los mercados de dichas obras. Si bien los tribunales priorizan las cuestiones de uso justo, la Oficina sugiere que el uso de contenido pirateado debería ser un factor negativo en las determinaciones de uso justo, especialmente si conduce a la copia textual o sustituye las ventas. Esta postura podría impactar significativamente el desarrollo de la IA y el panorama legal en torno a los derechos de autor.