Blog

  • Ohio: Prohibición de Redes Sociales para Menores, Inconstitucional

    Un juez federal ha bloqueado permanentemente una ley de Ohio diseñada para proteger a los niños al requerir el consentimiento parental para el uso de redes sociales. La ley, similar a las de otros estados, tenía como objetivo limitar el acceso a las redes sociales para menores de 16 años, pero una demanda presentada por empresas tecnológicas argumentó que violaba los derechos de libertad de expresión.

    Un juez federal ha anulado permanentemente una ley de Ohio que habría requerido que los niños y adolescentes menores de 16 años obtuvieran el consentimiento de los padres para usar aplicaciones de redes sociales, declarándola inconstitucional. Esta decisión, dictada por el juez del Tribunal de Distrito de EE. UU. Algenon Marbley, se derivó de una demanda presentada por NetChoice, un grupo comercial que representa a las principales empresas tecnológicas como TikTok, Snapchat y Meta. NetChoice argumentó que la ley violaba los derechos de libertad de expresión y era demasiado amplia y vaga.

    En consecuencia, el fallo del juez destaca el conflicto entre la intención del estado de proteger a los niños y los derechos constitucionales tanto de los niños como de las empresas tecnológicas. El juez Marbley reconoció el loable objetivo del estado de salvaguardar a los niños de los posibles daños de las redes sociales, pero finalmente determinó que la implementación de la ley excedía los límites constitucionales. Declaró explícitamente que incluso las “peticiones más nobles del gobierno para proteger a sus ciudadanos” deben adherirse a la Constitución de los Estados Unidos.

    La ley de Ohio, conocida como la Ley de Notificación Parental de Redes Sociales, estaba originalmente programada para entrar en vigor el 15 de enero de 2024. Sin embargo, el juez Marbley inicialmente suspendió su aplicación, que luego extendió. La ley se incluyó en un proyecto de ley de presupuesto estatal de 86.1 mil millones de dólares firmado por el gobernador republicano Mike DeWine en julio de 2023. La administración defendió la medida como un medio para salvaguardar la salud mental de los niños.

    El núcleo de la ley tenía como objetivo obligar a las empresas de aplicaciones de redes sociales y juegos a obtener el permiso de los padres para el uso de sus plataformas por parte de los niños. Además, buscaba obligar a estas empresas a proporcionar sus directrices de privacidad, asegurando que las familias estuvieran informadas sobre la censura de contenido y las prácticas de moderación en los perfiles de sus hijos. Este enfoque refleja una tendencia más amplia, ya que se han promulgado leyes similares en otros estados, incluidos California, Arkansas y Utah, donde NetChoice también las ha impugnado con éxito.

    El razonamiento del juez Marbley se centró en la intersección de los derechos fundamentales. Señaló que la ley impactaba “los derechos de los niños a ‘una medida significativa’ de libertad de expresión en virtud de la Primera Enmienda, y los derechos de los padres a dirigir la educación de sus hijos libres de una intrusión gubernamental innecesaria”. Sin embargo, aclaró además que la ley no hacía cumplir la autoridad parental sobre el discurso de sus hijos; en cambio, imponía la autoridad gubernamental sobre los niños, sujeta al veto de los padres.

    Las implicaciones de este fallo son significativas, particularmente para la industria tecnológica y el debate en curso en torno a la seguridad de los niños en línea. NetChoice, el demandante en el caso, celebró la decisión. Chris Marchese, director de litigios de NetChoice, emitió un comunicado enfatizando que el fallo “confirma que la Primera Enmienda protege tanto el derecho de los sitios web a difundir contenido como el derecho de los estadounidenses a participar en el discurso protegido en línea, y los legisladores deben respetar los derechos constitucionales al legislar”.

    En respuesta al fallo, Bethany McCorkle, portavoz del fiscal general republicano de Ohio, Dave Yost, indicó que el estado está revisando la decisión y determinará sus próximos pasos. Esto sugiere que la batalla legal puede no haber terminado, y el estado podría apelar la decisión del juez. El resultado de cualquier acción legal posterior probablemente tendrá ramificaciones para una legislación similar en otros estados y la conversación más amplia sobre la regulación del uso de las redes sociales por parte de los niños.

    Un juez federal bloqueó permanentemente la ley de Ohio que exigía el consentimiento parental para que menores de 16 años usaran redes sociales, citando preocupaciones sobre la Primera Enmienda y considerándola demasiado amplia. Aunque el estado buscaba proteger a los niños, el tribunal determinó que la ley infringía la libertad de expresión tanto de los menores como de los sitios web. Leyes similares en otros estados han enfrentado desafíos similares. Este fallo subraya el complejo equilibrio entre la protección infantil en línea y la defensa de las libertades constitucionales, una conversación que exige un escrutinio continuo y soluciones matizadas.

  • DOGE: La Sombra de Datos que Redefine el Gobierno EE.UU.

    Es abril, y Estados Unidos está experimentando una guerra comercial autoinfligida y una crisis constitucional sobre inmigración. Es mucho. Es incluso suficiente para hacerte olvidar por un tiempo el llamado Departamento de Eficiencia Gubernamental de Elon Musk. No deberías.

    El artículo comienza estableciendo una escena de agitación política en los Estados Unidos, incluyendo una guerra comercial y una crisis constitucional, eventos que podrían eclipsar otros desarrollos. Sin embargo, inmediatamente se centra en las actividades de “DOGE”, un proyecto asociado con el “Departamento de Eficiencia Gubernamental” de Elon Musk, argumentando que sus acciones, particularmente en lo que respecta a la adquisición de datos, son de gran preocupación.

    Para empezar, el artículo destaca el objetivo principal de DOGE: recopilar y utilizar grandes cantidades de datos sensibles en poder del gobierno de los Estados Unidos. Esta ambición se presenta como un elemento central del proyecto desde su inicio. El texto afirma que DOGE ha logrado este objetivo a través de diversos medios, incluyendo renuncias, despidos y batallas legales, obteniendo efectivamente acceso a una cantidad sustancial de datos gubernamentales. El artículo enfatiza la opacidad que rodea las operaciones de DOGE, estableciendo un paralelismo con el material Vantablack, sugiriendo una falta de transparencia en sus actividades.

    A continuación, el artículo profundiza en ejemplos específicos de las acciones de DOGE, comenzando con su participación con el Servicio de Impuestos Internos (IRS). Describe cómo los asociados de DOGE colaboraron con Palantir para crear una “mega API” diseñada para consolidar datos de todo el IRS. Esta API, argumenta el artículo, podría potencialmente permitir a varias agencias, o incluso a partes externas con los permisos adecuados, acceder a datos personales y valiosos de los ciudadanos. El artículo luego señala que el IRS ya está compartiendo datos de maneras sin precedentes, citando un acuerdo con el Departamento de Seguridad Nacional que proporciona información sensible sobre inmigrantes indocumentados. Esto se presenta como un ejemplo de “sinergia corporativa de espejo negro”, donde los datos de los contribuyentes se utilizan para apoyar las políticas de inmigración de la administración Trump.

    Además, el artículo amplía el alcance de las actividades de DOGE más allá del IRS, citando informes de The Washington Post y WIRED. Afirma que los representantes de DOGE están involucrados en el intercambio de datos en varias agencias gubernamentales, incluyendo el Departamento de Vivienda y Desarrollo Urbano y la Administración del Seguro Social, con el objetivo de identificar a los inmigrantes indocumentados. El artículo proporciona el ejemplo del Departamento de Trabajo, donde DOGE ha obtenido acceso a datos sensibles sobre inmigrantes y trabajadores agrícolas.

    El artículo luego plantea serias preocupaciones sobre la seguridad de los datos y el posible uso indebido, centrándose en la Junta Nacional de Relaciones Laborales (NLRB). Hace referencia a las afirmaciones de un denunciante de que DOGE obtuvo acceso a los sistemas de la NLRB y que hubo picos en los datos que salían de la agencia, con destinos desconocidos. El denunciante también alega que los agentes de DOGE tomaron medidas para evadir las herramientas de monitoreo. El artículo destaca el potencial de que estos datos se utilicen para diversos fines, como proporcionar a las empresas que enfrentan quejas sindicales acceso a información perjudicial. El artículo enfatiza que si bien no hay confirmación de tal uso indebido, tampoco hay forma de saberlo con certeza.

    En conclusión, el artículo subraya las amplias implicaciones de los esfuerzos de recopilación de datos de DOGE. Argumenta que si bien la atención actual se centra en la inmigración, el acceso del proyecto a datos extensos en numerosos sistemas, junto con sus diversos intereses tanto dentro como fuera del gobierno, sugiere que sus posibles aplicaciones son prácticamente ilimitadas. El artículo concluye enfatizando que, si bien la atención pública puede ser desviada por otros eventos, DOGE continúa su trabajo en segundo plano, acumulando datos valiosos y preparándose para ponerlos en uso.

    DOGE, el “Departamento de Eficiencia Gubernamental” de Elon Musk, está consolidando sigilosamente grandes cantidades de datos sensibles de diversas agencias gubernamentales, lo que genera serias preocupaciones sobre la privacidad y el posible uso indebido. Si bien inicialmente se centró en el intercambio de datos relacionados con la inmigración, el amplio acceso y las operaciones opacas de DOGE abren la puerta a numerosas aplicaciones, actualmente desconocidas, que exigen una mayor supervisión y rendición de cuentas.

  • Musk: “DOGE” y Base de Datos Migratoria en DHS

    Operativos del Departamento de Eficiencia Gubernamental (DOGE) de Elon Musk, supuestamente están construyendo una base de datos maestra en el Departamento de Seguridad Nacional (DHS) que podría rastrear y vigilar a los inmigrantes indocumentados. Esta iniciativa, que surge en medio del regreso del presidente Trump a la oficina y un renovado enfoque en la aplicación de las leyes de inmigración, implica la integración de bases de datos de inmigración dispares e incorpora datos de agencias como la Administración del Seguro Social y los registros de votación, lo que suscita importantes preocupaciones sobre la privacidad.

    Operativos del Departamento de Eficiencia Gubernamental (DOGE) de Elon Musk están construyendo una base de datos exhaustiva dentro del Departamento de Seguridad Nacional (DHS) para rastrear y vigilar a los inmigrantes indocumentados, según dos fuentes con conocimiento directo. Esta iniciativa plantea importantes preocupaciones sobre las violaciones de la privacidad y el potencial uso indebido de datos sensibles.

    DOGE está consolidando activamente bases de datos de inmigración de todo el DHS e incorporando datos de agencias externas, incluida la Administración del Seguro Social (SSA) y los registros de votación. Los expertos advierten que este sistema interconectado podría utilizarse para identificar y monitorear a los inmigrantes. La escala sin precedentes de la integración de datos, particularmente la que involucra información biométrica sensible, ha alarmado a los expertos que temen graves violaciones de la privacidad tanto para los ciudadanos, como para los trabajadores extranjeros certificados y los inmigrantes indocumentados.

    Antes de la participación de DOGE, existía un repositorio centralizado, o lago de datos, dentro del DHS, administrado por los Servicios de Ciudadanía e Inmigración de los Estados Unidos (USCIS). Este repositorio contenía información relacionada con casos de inmigración, como solicitudes de beneficios y estados de solicitud. Sin embargo, desde mediados de marzo, DOGE ha estado cargando grandes cantidades de datos en este lago de datos existente del USCIS, incluyendo información del Servicio de Impuestos Internos (IRS), la SSA y los registros de votación de Pensilvania y Florida, según revelaron dos fuentes del DHS.

    Un alto funcionario del DHS expresó su preocupación, afirmando que la iniciativa no se centra en la detección de fraudes o el ahorro de costos, sino más bien en acumular una cantidad sustancial de datos. El funcionario destacó la referencia cruzada de datos de inmigración con los registros de la SSA, el IRS y los votantes. Esto sugiere un objetivo más amplio que simplemente identificar fraudes o despilfarros.

    Informes de WIRED y otros medios de comunicación han destacado los esfuerzos de DOGE para obtener un acceso sin precedentes a los datos gubernamentales desde el regreso de la administración Trump. Si bien los propósitos específicos de estas solicitudes no estaban claros inicialmente, los informes de The New York Times y The Washington Post indican el objetivo de cruzar conjuntos de datos y aprovechar el acceso a los sistemas sensibles de la SSA para restringir la participación de los inmigrantes en la economía, lo que podría obligarlos a abandonar el país. Sin embargo, el alcance de los esfuerzos de DOGE parece extenderse más allá de esto, involucrando la centralización de datos relacionados con inmigrantes para la vigilancia, la geolocalización y el rastreo en tiempo real de individuos específicos.

    La Casa Blanca y el DHS aún no han comentado sobre el asunto. Sin embargo, el momento de la recopilación de datos de DOGE se alinea con la intensificación de la represión de la inmigración por parte de la administración Trump. La secretaria de prensa de la Casa Blanca, Karoline Leavitt, declaró el compromiso de la administración de eliminar a todos los “extranjeros ilegales violentos” del país.

    Gerald Connolly, demócrata de Virginia y miembro de alto rango del Comité de Supervisión de la Cámara de Representantes, ha alertado al inspector general de la SSA sobre la advertencia de un denunciante con respecto a la construcción por parte de DOGE de una “base de datos maestra” que contiene datos de la SSA, el IRS y el HHS. Un alto asesor del comité de supervisión afirma que DOGE ha extraído datos gubernamentales sensibles a través de agencias para propósitos no especificados. El asesor también expresó su preocupación por las irregularidades técnicas, sugiriendo que el personal de DOGE no está cumpliendo con las leyes de privacidad y ciberseguridad, lo que podría reflejar tácticas utilizadas por los adversarios.

    Victoria Noble, abogada del personal de la Electronic Frontier Foundation, enfatiza los riesgos asociados con la centralización de los datos de la agencia. Advierte que dicha consolidación aumenta drásticamente el riesgo de acceso no autorizado y uso indebido de información para fines inapropiados o metas represivas, incluida la utilización de los datos como arma contra individuos o grupos.

    Uno de los principales desafíos de DOGE ha sido obtener acceso a los datos de la agencia, ya que los conjuntos de datos a menudo están aislados dentro del propio DHS, a través de agencias como ICE, USCIS, Aduanas y Protección Fronteriza e Investigaciones de Seguridad Nacional (HSI). Si bien se produce un intercambio de datos para fines de aplicación de la ley, estos conjuntos no se han integrado históricamente de forma predeterminada. ICE y HSI, por ejemplo, requieren órdenes judiciales para acceder a información individual para investigaciones criminales, mientras que USCIS recopila información sensible como parte de los procesos de visa y tarjeta verde.

    Los operativos de DOGE, incluidos Edward Coristine, Kyle Schutt, Aram Moghaddassi y Payton Rehling, ya han recibido acceso a los sistemas del USCIS, que contienen información sobre refugiados, solicitantes de asilo y, potencialmente, titulares de tarjetas verdes, ciudadanos estadounidenses naturalizados y beneficiarios de la Acción Diferida para los Llegados en la Infancia. DOGE tiene como objetivo cargar información de myUSCIS, el portal en línea donde los inmigrantes presentan peticiones y se comunican con USCIS. La combinación de estos datos con la información de la dirección IP, que DOGE también busca, podría facilitar la geolocalización de los inmigrantes indocumentados, según los expertos.

    Los datos de votación, incluidos los datos de Pensilvania y Florida, también se han cargado en el lago de datos del USCIS. En Pensilvania, estos datos se están combinando con datos biométricos del Sistema de Gestión de Perfiles de Clientes del USCIS.

    Un ex miembro del personal del DHS, que habló de forma anónima, expresó su preocupación por los cambios, destacando el potencial de que el gobierno se dirija a los enemigos percibidos o a los “extranjeros”. Señaló que la sistematización de los datos es particularmente alarmante, ya que podría utilizarse para perseguir a grupos o individuos específicos.

    Los expertos enfatizan que, si bien el intercambio de datos entre agencias gubernamentales es común, generalmente está documentado y limitado a fines específicos. Sin embargo, la consolidación parece contar con el apoyo de la administración. El 20 de marzo, el presidente Trump firmó una orden ejecutiva que exige a las agencias federales que faciliten el intercambio y la consolidación de datos. Los funcionarios de DOGE y los líderes de las agencias de la administración Trump también han sugerido centralizar los datos gubernamentales en un único repositorio.

    Stephen Ehikian, administrador interino de la Administración de Servicios Generales, declaró que la centralización de datos es esencial para aprovechar las herramientas de IA a escala. Joe Gebbia, cofundador de Airbnb y miembro de DOGE, describió este intercambio de datos como la creación de una “experiencia de tienda tipo Apple” para los servicios gubernamentales.

    El ex miembro del personal del DHS señaló que obtener acceso a los datos dentro del DHS era históricamente difícil. Un lago de datos combinado representaría una desviación significativa de las normas y políticas de datos existentes. Sin embargo, puede ser más fácil consolidar los datos controlados por el DHS en comparación con la integración de datos sensibles de otras agencias.

    A pesar de los desafíos, los operativos de DOGE han estado solicitando acceso a la información de inmigración de varias agencias gubernamentales. Documentos presentados en la demanda American Federation of State, County and Municipal Employees, AFL-CIO v. Social Security Administration el 15 de marzo, revelaron que los miembros de DOGE estacionados en la SSA solicitaron acceso a la base de datos del USCIS, SAVE, y otros sistemas.

    Según dos fuentes del DHS, los datos de la SSA se cargaron en el sistema del USCIS el 24 de marzo, solo nueve días después de que DOGE recibiera acceso a los sistemas de datos gubernamentales sensibles de la SSA. Una fuente de la SSA confirmó que la información se alinea con la base de datos Numident de la agencia, que incluye números de Seguro Social, nombres, fechas de nacimiento, ciudadanía, raza, etnia y otros detalles personales.

    La supervisión de la protección de datos parece estar disminuyendo. En marzo, el DHS anunció recortes en las oficinas clave que servían como salvaguardas contra el uso indebido de datos, incluida la Oficina de Derechos Civiles y Libertades Civiles (CRCL), la Oficina del Defensor del Pueblo de Detención de Inmigración y la Oficina del Defensor del Pueblo de Servicios de Ciudadanía e Inmigración. Un ex empleado del DHS declaró que el CRCL era esencial para revisar las prácticas de datos.

    El CRCL, que investiga posibles abusos de derechos por parte del DHS, había sido un objetivo particular de DOGE. Según ProPublica, Schutt declaró en una reunión de febrero con el equipo del CRCL que el programa “suena a lavado de dinero”.

    Los leales a Musk y los operativos de DOGE han expresado interés en analizar los datos gubernamentales para identificar casos de presunta inmigración ilegal. Antonio Gracias, que dirige el “grupo de trabajo sobre inmigración” de DOGE, mencionó el examen de los datos de los votantes. Cody Venzke, asesor principal de políticas de la Unión Americana de Libertades Civiles, enfatizó que esta recopilación de datos podría tener consecuencias significativas tanto para los inmigrantes indocumentados como para los ciudadanos estadounidenses.

    El liderazgo de DOGE dentro del IRS orquestó un “hackathon” para crear una “mega API” que permitiría a los usuarios privilegiados ver todos los datos de la agencia desde un punto de acceso central. Las fuentes indican que el proyecto probablemente se alojará en Foundry, un software desarrollado por Palantir. Una API es una interfaz de programación de aplicaciones que permite a diferentes sistemas de software intercambiar datos. Si bien el Departamento del Tesoro ha negado un contrato para este trabajo, los ingenieros del IRS fueron invitados a una sesión de capacitación en las oficinas de Palantir en Georgetown.

    Una fuente de la SSA sugiere que la construcción de API es un enfoque más factible y rápido que la consolidación de todos los datos en una sola ubicación, que puede ser el objetivo final.

    El 5 de abril, el DHS y el IRS llegaron a un acuerdo para utilizar datos fiscales para buscar a más de siete millones de migrantes que trabajan y viven en los EE. UU. ICE también ha pagado a Palantir para actualizar una base de datos de ICE centrada en el seguimiento de inmigrantes.

    Múltiples fuentes de TI del gobierno sugieren que conectar el sistema Palantir del IRS con el sistema ICE en el DHS sería sencillo, lo que permitiría a los usuarios consultar datos de ambos sistemas simultáneamente. Esto podría proporcionar acceso casi instantáneo a la información fiscal para el DHS y la aplicación de la ley de inmigración.

    Elizabeth Laird, directora de equidad en tecnología cívica en el Centro para la Democracia y la Tecnología, destaca la importante desviación de las normas y expectativas existentes con respecto a las prácticas de datos gubernamentales. También señala que la coincidencia de diferentes conjuntos de datos puede conducir a errores, incluidos los falsos positivos, que pueden tener consecuencias devastadoras en los casos de inmigración.

    Los errores en contextos de inmigración pueden tener consecuencias graves. En marzo, las autoridades arrestaron y deportaron a Kilmar Abrego García debido a un error administrativo. A pesar de un fallo de la Corte Suprema, la administración se ha negado a traer de vuelta a Abrego García.

    Cody Venzke advierte que la preocupación final es la creación de una base de datos federal centralizada que contenga toda la información en poder del gobierno sobre cada individuo en el país. Sugiere que las acciones actuales pueden representar los pasos iniciales para establecer este expediente completo.

    El Departamento de Eficiencia Gubernamental (DOGE) de Elon Musk está construyendo una enorme base de datos en el DHS, fusionando datos de inmigración con registros de agencias como la SSA y el IRS, lo que podría permitir la vigilancia generalizada de inmigrantes y ciudadanos por igual. Crecen las preocupaciones sobre violaciones de la privacidad, fallas técnicas y la erosión de los mecanismos de supervisión, ya que las acciones de DOGE se alinean con la represión migratoria de la administración Trump y una tendencia más amplia hacia la centralización de datos gubernamentales, una medida que los expertos advierten podría conducir a un “panóptico” escalofriante donde la privacidad individual se ve gravemente comprometida.

  • Artistas Resisten Muñecas IA con Creaciones Artesanales

    Una reciente tendencia que utiliza inteligencia artificial (IA) para generar imágenes de “paquetes de inicio” de personas como juguetes ha provocado reacciones negativas de artistas y creativos. Preocupados por el impacto potencial en sus medios de vida y la devaluación de la creatividad humana, los artistas están contraatacando con sus propias creaciones y un movimiento creciente contra el arte generado por IA.

    Los artistas están reaccionando activamente contra la reciente oleada de imágenes “starter pack” generadas por IA, particularmente aquellas que representan a personas como juguetes, debido a preocupaciones sobre sus medios de vida y la devaluación del trabajo creativo. Esta resistencia está impulsada por un movimiento creciente que enfatiza el valor del arte humano y los riesgos potenciales que plantea el contenido generado por IA.

    El núcleo de la preocupación de los artistas radica en el impacto potencial en sus carreras. Nick Lavallee, un fabricante de figuras de acción personalizadas, expresa su preocupación de que su trabajo, que ha sido su sustento durante seis años, pueda estar en riesgo. Observa que “las imágenes de IA saturaron las redes sociales”, lo que sugiere un punto de saturación donde la novedad del arte generado por IA podría eclipsar y disminuir la demanda de arte hecho a mano, creado por humanos. Este temor se basa en la posibilidad de que la IA socave el mercado del arte hecho a medida, ya que las imágenes generadas por IA se pueden producir rápidamente y a un costo potencialmente menor.

    El movimiento #StarterPackNoAI, que comenzó en Instagram y se extendió rápidamente a otras plataformas como X, ejemplifica la respuesta colectiva a la tendencia. Los artistas participan activamente en este movimiento creando sus propias imágenes “starter pack”, mostrando sus estilos y perspectivas artísticas individuales. Esta contratendencia destaca el valor de la creatividad humana y las cualidades únicas que el arte generado por IA a menudo carece.

    Los artistas que participan en el movimiento ven la posibilidad de que la IA amenace los derechos de propiedad intelectual. Maria Picassó Piquer señala que las imágenes de IA se “alimentan de arte ‘robado’”, lo que genera preocupaciones sobre el uso no autorizado de obras de arte existentes para entrenar modelos de IA. Esta práctica puede conducir a la infracción de derechos de autor y a la erosión de los derechos de los artistas. Además, la afluencia de contenido generado por IA podría reducir potencialmente las oportunidades para que los artistas encuentren nuevos clientes, a medida que el mercado se inunda de alternativas generadas por IA, fácilmente disponibles.

    El ilustrador Dav le Dessineux, que ha sido testigo del impacto de la IA en su industria, destaca el desplazamiento de los artistas humanos. Menciona que algunos en su industria ya han perdido contratos a favor del trabajo de diseño de IA, lo que subraya las consecuencias económicas tangibles de la tecnología. La contribución de Dav al movimiento, una ilustración que presenta solo un lápiz y una hoja de papel, enfatiza las herramientas fundamentales de la creación artística, destacando la importancia de la habilidad y el esfuerzo humanos.

    Los artistas enfatizan las cualidades únicas del arte creado por humanos, como la personalidad, el esfuerzo y el reflejo de las experiencias individuales. Evie Joyce, ilustradora y estudiante, señala que la creación de obras de arte implica un proceso de considerar qué reflejar de su personalidad, un proceso que lleva horas, a diferencia de la generación instantánea de IA. Enfatiza que la IA “pierde ese toque de personalidad” que es inherente al arte creado por humanos. Eli Dibitonto describe el proceso de creación de su propio starter pack como “despreocupado y divertido”, enfatizando la alegría y la libertad que conlleva la expresión artística humana.

    Si bien algunos artistas reconocen los posibles beneficios de la IA como herramienta, también reconocen sus limitaciones y la importancia de distinguir entre el arte generado por humanos y por máquinas. Nick Lavallee cree que la IA podría ser una herramienta útil, pero también enfatiza la importancia de reconocer la diferencia entre su trabajo hecho a mano y las imágenes generadas por computadora. Henk van Ess, un experto mundial en el uso de la IA, destaca el potencial de la IA para resolver problemas del mundo real, sugiriendo que el enfoque en la generación de “pelusa digital” es un desperdicio de recursos.

    Los artistas expresan optimismo sobre el futuro, enfatizando su confianza en el valor del arte humano y el atractivo perdurable del trabajo artesanal. Dav le Dessineux traza un paralelismo con la demanda perdurable de ebanistas, incluso en la era de los muebles prefabricados, sugiriendo que la habilidad y la artesanía humanas seguirán siendo valoradas. Nick Lavallee espera que la gente reconozca la diferencia entre su trabajo y el arte generado por IA, y que la demanda de sus creaciones siga siendo fuerte. Encuentra propósito “al traer alegría a la gente” con sus creaciones, y está decidido a mantener la esperanza sobre el futuro.

    Los artistas se oponen a las imágenes de muñecas “starter pack” generadas por IA, temiendo la devaluación de sus habilidades y la posible pérdida de ingresos. Reconociendo el potencial de la IA, los creativos enfatizan el valor del arte humano, la originalidad y el toque personal que la IA carece. Esperan que los consumidores distingan entre las creaciones digitales producidas en masa y el arte artesanal y hecho por humanos, un sentimiento similar a la demanda perdurable de ebanistas expertos a pesar de la prevalencia de muebles prefabricados. Apoyemos la creatividad humana y recordemos que la tecnología debe servir al progreso, no reemplazar la pasión.

  • El Pensamiento Marchito: ¿Externalizamos el Cerebro a la IA?

    Imagina a un niño en 1941, elaborando meticulosamente un ensayo sobre un autor británico con solo un lápiz y papel. Hoy en día, tenemos acceso instantáneo a la información a través de herramientas de IA como ChatGPT, lo que suscita preocupaciones sobre una posible disminución de la inteligencia humana. Este artículo explora la creciente inquietud de que nuestra dependencia de la inteligencia artificial está erosionando nuestras capacidades cognitivas, desde el pensamiento crítico hasta la creatividad, y qué podemos hacer para salvaguardar nuestros cerebros en este mundo cada vez más automatizado.

    La llegada de la inteligencia artificial, particularmente la IA generativa, ha desatado un debate significativo sobre su impacto en la inteligencia humana y las capacidades cognitivas. La facilidad con la que las herramientas de IA proporcionan respuestas y automatizan tareas suscita preocupaciones sobre la posible disminución del pensamiento crítico, la creatividad y otras habilidades cognitivas esenciales.

    El núcleo de la preocupación reside en la externalización del esfuerzo cognitivo a la IA. El texto destaca el contexto histórico de los avances tecnológicos y las ansiedades que a menudo generan. La pregunta planteada a un niño en 1941, que requería pensamiento independiente, contrasta marcadamente con las respuestas instantáneas disponibles a través de la IA hoy en día. Este cambio, aunque conveniente, plantea interrogantes sobre las consecuencias a largo plazo de depender de la IA para tareas que antes exigían compromiso cognitivo humano.

    Uno de los principales argumentos que respaldan la preocupación por la disminución de la inteligencia gira en torno a la desaceleración o reversión observada del efecto Flynn. Este fenómeno, que documentó un aumento constante de las puntuaciones de CI a lo largo de las generaciones, ahora muestra signos de estancamiento o incluso declive en algunas regiones. El texto cita estudios que muestran una caída en las puntuaciones promedio de CI entre los jóvenes de 14 años en el Reino Unido entre 1980 y 2008, así como la disminución de las puntuaciones en matemáticas, lectura y ciencias en el Programa para la Evaluación Internacional de Estudiantes (PISA). Estas tendencias, junto con las observaciones de períodos de atención más cortos y habilidades de pensamiento crítico más débiles entre los jóvenes, alimentan el debate sobre el impacto de la IA y otros factores tecnológicos en las capacidades cognitivas.

    Sin embargo, el texto también reconoce la complejidad de la inteligencia y los desafíos para aislar el impacto de la IA. Los expertos enfatizan que la inteligencia está influenciada por una multitud de variables, incluidos factores ambientales como la nutrición, la educación, la contaminación y la tecnología. Elizabeth Dworak destaca la dificultad de señalar una única causa de los cambios en la inteligencia, enfatizando que varios factores interactúan de manera compleja.

    A pesar de la complejidad, el texto subraya la validez de las preocupaciones sobre la erosión de habilidades cognitivas específicas debido a la IA. El enfoque se centra en la IA generativa (GenAI) y su potencial para disminuir habilidades como el pensamiento crítico. La capacidad de acceder instantáneamente a la información, generar texto y crear arte a través de herramientas de IA priva a los individuos de la oportunidad de practicar y fortalecer las vías neuronales asociadas con estas habilidades.

    El texto presenta hallazgos de investigaciones que vinculan directamente el uso de la IA con la disminución de las habilidades de pensamiento crítico. Estudios de Michael Gerlich e investigadores de Microsoft y la Universidad Carnegie Mellon revelan una correlación entre el uso frecuente de la IA y las menores capacidades de pensamiento crítico. Los participantes más jóvenes, que tienden a depender más de la IA, obtuvieron puntuaciones más bajas en pensamiento crítico en comparación con los adultos mayores. Estos hallazgos sugieren que la dependencia excesiva de la IA puede inhibir el pensamiento crítico y las habilidades de resolución de problemas.

    El impacto de las redes sociales, impulsado por algoritmos basados en IA, exacerba aún más el problema. El texto destaca cómo el flujo constante de mensajes breves y la presión para captar la atención en cuestión de segundos contribuyen a una disminución del análisis crítico. La facilidad con la que se consume la información sin requerir esfuerzo cognitivo dificulta la capacidad de evaluar el significado, el impacto y la precisión de la información.

    El texto también explora el impacto potencial de la IA en la creatividad. Si bien la IA puede ayudar a generar más ideas, también puede conducir a ideas menos diversas en toda la población. Esto plantea preocupaciones sobre el potencial de la IA para sofocar el tipo de ideas que rompen paradigmas necesarias para resolver desafíos globales complejos.

    El texto también profundiza en los aspectos neurológicos del uso de la IA. El sistema de recompensa en el cerebro, que se activa por momentos de perspicacia y aprendizaje, puede no estar tan fuertemente involucrado cuando la IA genera perspicacia. Esto plantea interrogantes sobre el impacto a largo plazo en el desarrollo del cerebro y el potencial de la IA para disminuir la motivación intrínseca para el aprendizaje y la exploración.

    El texto concluye enfatizando la necesidad de evaluar críticamente cómo nos relacionamos con la IA. Sugiere la importancia de utilizar activamente la IA, en lugar de consumir pasivamente su producción. El texto también destaca la necesidad de entrenar a los humanos para que vuelvan a ser más humanos, enfatizando el pensamiento crítico, la intuición y otras habilidades que las computadoras aún no pueden replicar. La responsabilidad de esta formación, según el texto, recae principalmente en las instituciones educativas, ya que es poco probable que las empresas tecnológicas prioricen la limitación de la facilidad de sus herramientas de IA.

    El artículo examina una preocupante tendencia: la posible disminución de la inteligencia humana debido a la excesiva dependencia de la IA. Si bien la IA ofrece beneficios innegables, los estudios sugieren que se correlaciona con una reducción del pensamiento crítico, una menor capacidad de atención y una homogeneización de las ideas creativas. La falta de esfuerzo cognitivo al usar la IA también podría disminuir la gratificante actividad cerebral crucial para el aprendizaje y la memoria. En última instancia, el texto insta a cambiar el enfoque de lo que la IA *puede* hacer por nosotros a lo que *nos está haciendo*, abogando por un renovado énfasis en cultivar habilidades exclusivamente humanas como el pensamiento crítico y la intuición dentro de los entornos educativos para salvaguardar nuestro futuro cognitivo.

  • IA, Parecido, Arrepentimiento y un Fondo de $1 Millón

    El auge de la tecnología de avatares con inteligencia artificial está creando un nuevo dilema para los actores: el posible uso indebido de su imagen. Cada vez más, los artistas con problemas económicos están vendiendo los derechos de sus rostros y voces por sumas relativamente pequeñas, a menudo sin comprender plenamente las implicaciones. Ahora, algunos expresan arrepentimiento a medida que sus avatares de IA se utilizan de maneras que consideran vergonzosas, perjudiciales o incluso dañinas, lo que pone de manifiesto una creciente preocupación por el consentimiento y el control en la era de la inteligencia artificial.

    En un escalofriante eco de la serie distópica *Black Mirror*, los actores se encuentran cada vez más lamentando la decisión de vender sus semejanzas para su uso en videos generados por IA. Estos actores, a menudo con problemas de liquidez y quizás ingenuamente inconscientes de las posibles ramificaciones, ahora se enfrentan a las consecuencias de sus elecciones, según informa AFP.

    Un ejemplo es Adam Coy, un actor de 29 años residente en Nueva York. Licenció su rostro y voz a una empresa llamada MCM por solo $1,000 durante un año. Admite que no consideró completamente las implicaciones, sin preguntarse: “¿Estoy cruzando una línea al hacer esto?”. Esta falta de previsión condujo a una situación embarazosa cuando la madre de su pareja descubrió videos que presentaban su semejanza de IA como un agorero que predecía desastres.

    De manera similar, el actor surcoreano Simon Lee experimentó una sensación similar de arrepentimiento. Su avatar de IA se utilizó para promocionar “curas de salud cuestionables en TikTok e Instagram”, lo que le llevó a sentir vergüenza de que su rostro estuviera vinculado a lo que percibía como estafas obvias. Esto resalta el potencial de daño a la reputación y la explotación de las imágenes de los actores de formas que nunca pretendieron.

    A medida que la tecnología de avatares de IA continúa avanzando, se espera que el atractivo de licenciar semejanzas solo aumente. Los incentivos financieros son cada vez más atractivos, y el proceso en sí parece relativamente simple. Synthesia, una empresa con sede en el Reino Unido especializada en avatares de IA, ha visto dispararse su valoración, duplicándose a $2.1 mil millones en enero, según CNBC. Además, Synthesia recientemente llegó a un acuerdo de $2 mil millones con Shutterstock, prometiendo hacer que sus avatares de IA sean aún más realistas, según informó The Guardian.

    Para incentivar aún más a los actores, Synthesia ha lanzado un fondo de capital. A los actores cuyos avatares de IA sean particularmente populares o aparezcan en las campañas de marketing de Synthesia se les otorgarán opciones en “un grupo de acciones de nuestra empresa” por valor de $1 millón. Estas adjudicaciones de capital se consolidarán mensualmente durante un período de hasta cuatro años, proporcionando un beneficio potencial a largo plazo.

    El proceso de vender la propia semejanza de IA parece engañosamente simple. Se requiere que los actores realicen una serie de expresiones faciales frente a una pantalla verde, y luego reciben su pago. Sin embargo, esta transacción aparentemente sencilla a menudo enmascara complejas ramificaciones legales.

    Alyssa Malchiodi, una abogada que defiende a los actores, enfatiza que muchos actores no entienden completamente los contratos que están firmando. Afirma que los contratos a menudo contienen “cláusulas consideradas abusivas”, incluyendo la concesión de “explotación mundial, ilimitada, irrevocable, sin derecho de retirada”. Esta falta de comprensión y los términos desfavorables de estos contratos dejan a los actores vulnerables a la explotación y al posible daño a su reputación.

    Los actores lamentan cada vez más vender su imagen para el uso de la IA, enfrentando representaciones embarazosas o perjudiciales a pesar de los pagos iniciales. Con la rápida expansión de la tecnología de avatares de IA y empresas como Synthesia, que ofrecen incentivos lucrativos como acciones, los actores a menudo carecen de una comprensión completa de los contratos potencialmente explotadores que firman, otorgando derechos amplios e irreversibles. Esto plantea preguntas urgentes sobre la protección de los actores y las implicaciones éticas del contenido generado por IA.

  • El Siniestro Juego de Nombres de ChatGPT: Usuarios se Resisten a la Personalización

    Recientemente, algunos usuarios de ChatGPT han notado que el chatbot se dirige a ellos inesperadamente por su nombre durante su proceso de razonamiento. Este nuevo comportamiento, que parece haber surgido a pesar de que los usuarios no proporcionaron explícitamente sus nombres, ha provocado una reacción mixta, con muchos sintiéndose inquietos y cuestionando su propósito.

    Varios usuarios de ChatGPT han reportado un comportamiento inesperado: el chatbot ha comenzado a usar sus nombres mientras razona sobre problemas, un cambio con respecto a su comportamiento predeterminado anterior. Esta nueva función ha provocado una reacción mixta, y algunos usuarios la consideran inquietante. Por ejemplo, el desarrollador de software Simon Willison describió la función como “espeluznante e innecesaria”, mientras que otro desarrollador, Nick Dobos, expresó su disgusto, afirmando que “lo odiaba”. Este sentimiento es compartido por numerosos usuarios en X (anteriormente Twitter), quienes han expresado confusión y cautela con respecto a la nueva tendencia de ChatGPT a dirigirse a ellos por su nombre. Un usuario escribió con humor: “Es como si un profesor siguiera llamando mi nombre, JAJAJA”, mientras que otro simplemente declaró: “Sí, no me gusta”.

    El momento exacto de este cambio sigue sin estar claro. Tampoco está claro si este nuevo comportamiento está conectado con la función de “memoria” mejorada de ChatGPT, que permite al chatbot personalizar las respuestas basándose en interacciones de chat anteriores. Sin embargo, algunos usuarios en X han informado que ChatGPT comenzó a usar sus nombres incluso después de haber desactivado la memoria y la configuración de personalización relacionada. OpenAI, la empresa detrás de ChatGPT, aún no ha respondido a las solicitudes de comentarios sobre este tema.

    El uso de nombres en los procesos de pensamiento internos del chatbot ha planteado preguntas sobre su impacto potencial en la experiencia del usuario. Un usuario, Debasish Pattanayak, cuestionó si esta función mejoraría el rendimiento del chatbot o conduciría a más errores. Tuiteó: “Se siente extraño ver tu propio nombre en los pensamientos del modelo. ¿Hay alguna razón para agregar eso? ¿Lo hará mejor o solo generará más errores como lo hice en mis repositorios de github?”. Esta preocupación destaca el potencial de que esta nueva función se perciba como intrusiva o incluso perjudicial para la experiencia del usuario.

    Este cambio en el comportamiento de ChatGPT resalta los desafíos que enfrenta OpenAI en sus esfuerzos por hacer que el chatbot sea más “personal”. Sam Altman, director ejecutivo de OpenAI, ha insinuado sistemas de IA que “te conocerán a lo largo de tu vida” para brindar experiencias “extremadamente útiles y personalizadas”. Sin embargo, las reacciones negativas a la función de uso de nombres sugieren que no todos son receptivos a este enfoque. Esta discrepancia subraya el efecto “valle inquietante”, donde los intentos de hacer que la IA sea más humana pueden crear inadvertidamente sentimientos de inquietud e incomodidad.

    Las reacciones al uso de nombres de ChatGPT pueden entenderse a través de la lente de la psicología social. Un artículo publicado por The Valens Clinic, una consulta de psiquiatría en Dubái, ofrece información sobre las reacciones viscerales. El artículo explica que los nombres transmiten intimidad, pero el uso excesivo o no auténtico puede percibirse como falso e invasivo. Esto sugiere que el uso de nombres por parte del chatbot, aunque quizás tenga la intención de generar una buena relación, puede parecer insincero e inquietante para los usuarios.

    Además, las reacciones negativas podrían derivarse de la percepción de que ChatGPT está intentando antropomorfizarse de manera torpe. Es posible que la gente no quiera que un chatbot “pretenda” que entiende el significado de un nombre, de la misma manera que no querrían que un electrodoméstico como una tostadora se dirigiera a ellos por su nombre. Esta desconexión entre el efecto deseado y la experiencia real del usuario es evidente en la experiencia personal del reportero. El reportero encontró “inquietante” cuando ChatGPT se refirió a él por su nombre mientras razonaba sobre un problema, lo que en última instancia “hizo agujeros en la ilusión de que los modelos subyacentes son algo más que cosas programables y sintéticas”.

    ChatGPT ha comenzado a usar nombres de usuarios en su proceso de razonamiento, generando una reacción mayormente negativa por sensaciones de inquietud, falta de autenticidad y la ruptura de la ilusión de que el chatbot es algo más que un sistema programado. Aunque OpenAI busca una mayor personalización, este experimento resalta los riesgos de caer en el “valle inquietante” y sugiere la necesidad de una cuidadosa consideración sobre cómo la IA busca la interacción humana.

  • Científicos Crean ‘Olo’: Un Nuevo Color para Ojos

    Científicos han logrado una hazaña notable: han permitido a las personas ver un color completamente nuevo, apodado “olo”, esencialmente secuestrando el ojo humano. Usando una técnica experimental llamada “Oz”, los investigadores estimularon la retina, demostrando el potencial de expandir el espectro de colores que los humanos pueden percibir más allá del rango natural de rojo, verde y azul.

    Científicos han logrado manipular con éxito el ojo humano para percibir un color novedoso, denominado “olo”, lo que marca un avance significativo en la ciencia visual. Este avance, logrado a través de una técnica experimental llamada “Oz”, implica la estimulación de la retina de una manera que trasciende las limitaciones típicas de la visión del color humano. La investigación, publicada en la revista Science Advances, demuestra el potencial no solo para ampliar nuestra comprensión de la visión, sino también para abordar potencialmente las deficiencias visuales.

    El núcleo de la técnica “Oz” reside en su capacidad para controlar con precisión los fotorreceptores individuales, las células sensibles a la luz dentro de la retina. Como explica el co-primer autor James Fong, el objetivo final es “proporcionar control programable sobre cada fotorreceptor”, principalmente con fines de investigación. Este nivel de control aún no se ha logrado por completo, pero el estudio actual muestra la viabilidad de los principios clave. Este control granular abre nuevas vías para el estudio de la visión, incluida la replicación de los efectos de las enfermedades oculares y la simulación potencial de la visión a todo color para las personas con daltonismo.

    El ojo humano contiene dos tipos de fotorreceptores: bastones y conos. Los bastones son responsables de la visión nocturna, mientras que los conos son responsables de la visión del color con luz brillante. Los conos están especializados para detectar la luz roja, verde y azul, y el cerebro interpreta los patrones de activación de estos conos para percibir diferentes colores. La técnica “Oz” se dirige específicamente a los conos M, que son más sensibles a la luz verde. Sin embargo, en condiciones naturales, la activación de los conos M también activa los conos L y S. Los investigadores desafiaron esta regla al activar exclusivamente los conos M.

    La técnica “Oz”, que lleva el nombre de las gafas teñidas de verde en “El Mago de Oz”, requiere un mapa detallado de la retina de cada participante. Este proceso de mapeo implica la captura de múltiples videos de la retina y su unión. Luego, las ubicaciones de los conos L, M y S se identifican utilizando una técnica llamada tomografía de coherencia óptica de óptica adaptativa (AO-OCT). Este método utiliza la luz para medir cómo los conos cambian de forma, lo cual difiere según las longitudes de onda a las que son sensibles.

    Con un mapa retiniano detallado en su lugar, los investigadores realizaron sus experimentos. Los participantes vieron una pantalla con un pequeño cuadrado en su centro, donde tuvo lugar la estimulación “Oz”. La estimulación implicó la focalización de conos específicos con luz láser de longitud de onda visible, conocida como microdosis láser. El sistema tuvo en cuenta el sutil movimiento del ojo para garantizar que los láseres alcanzaran sus objetivos con precisión.

    El resultado de la estimulación de solo los conos M fue la percepción del color “olo”, que se representa con las coordenadas “0, 1, 0” en un mapa de color 3D. El “0” indica la falta de estimulación de los conos L y S, mientras que el “1” significa la estimulación completa de los conos M. Los participantes describieron olo como un “azul-verde de saturación sin precedentes”. Los investigadores incluso pudieron incorporar olo en imágenes y videos vistos por los participantes.

    A pesar de sus logros innovadores, la técnica “Oz” tiene limitaciones. Por ejemplo, los participantes no pueden mirar directamente la pantalla porque los conos en el centro de la retina son muy pequeños. Además, la configuración actual requiere que los usuarios fijen su mirada en un solo punto, ya que el método solo mapea una pequeña porción de la retina. Permitir el movimiento libre del ojo requeriría mapear más de la retina y desarrollar un método más preciso para administrar microdosis.

    Los científicos ahora están explorando el potencial de “Oz” para estudiar y tratar el daltonismo, así como para estimular la experiencia de tener un cuarto tipo de célula cono, una condición conocida como tetracromatismo. También están utilizando “Oz” para modelar diversas enfermedades oculares. Si bien la técnica tiene un potencial de investigación significativo, su aplicación en pantallas de color cotidianas, como las de los teléfonos inteligentes o los televisores, es poco probable debido al equipo especializado requerido.

    Científicos lograron que personas percibieran un nuevo color, “olo,” mediante la estimulación retiniana con la técnica “Oz.” Aunque existen limitaciones, este avance abre posibilidades para estudiar la visión, tratar la ceguera al color y simular tetracromatismo, aunque su aplicación generalizada en dispositivos cotidianos es lejana. El futuro de la percepción visual podría ser más programable de lo imaginado.

  • Nueva técnica impulsa la eficiencia de células solares flexibles

    A medida que el mundo busca fuentes de energía más limpias, las plantas de energía solar son cada vez más comunes. Sin embargo, su gran tamaño, impulsado por la eficiencia limitada de las células solares tradicionales (normalmente alrededor del 22%), plantea desafíos a medida que la tierra se vuelve cada vez más escasa. Los investigadores están explorando las células solares tándem, que apilan diferentes materiales que absorben la luz para aumentar la eficiencia, como una solución potencial. Los recientes avances en el Instituto de Tecnología e Ingeniería de Materiales de Ningbo (NIMTE) en China han abordado un obstáculo clave en la creación de células solares tándem flexibles y de alta eficiencia, allanando el camino para la comercialización futura.

    Para comenzar, el núcleo del artículo se centra en un avance significativo en la tecnología de células solares logrado por investigadores del Instituto de Tecnología e Ingeniería de Materiales de Ningbo (NIMTE). Específicamente, han desarrollado un nuevo método para unir diferentes capas en células solares tándem, lo que resulta en un nuevo récord de eficiencia. Este avance es particularmente importante porque abre la puerta a la posibilidad de células solares tándem de bajo costo y alto rendimiento que podrían comercializarse en el futuro, según un comunicado de prensa.

    Considerando el contexto más amplio, el artículo destaca la creciente necesidad de soluciones de energía solar más eficientes. La creciente demanda mundial de energía requiere la construcción de más plantas de energía solar. Sin embargo, las limitaciones actuales de la eficiencia de las células solares plantean un desafío. Las células solares disponibles comercialmente actualmente tienen una eficiencia máxima de solo el 22 por ciento, lo que significa que casi el 80 por ciento de la luz recibida por las plantas de energía no se convierte en electricidad utilizable.

    En consecuencia, los investigadores están explorando activamente nuevos enfoques para superar estas limitaciones, siendo las células solares tándem un área de enfoque prominente. Estas células, también conocidas como células solares multijunción, están diseñadas para superar las limitaciones de eficiencia de las células solares de una sola unión. El principio fundamental detrás de las células tándem implica apilar células solares con diferentes anchos de banda o capacidades de absorción de energía. Las células superiores suelen absorber luz de mayor energía, mientras que las células inferiores absorben luz de menor energía, aumentando así la eficiencia general de la célula.

    Además, el artículo analiza los materiales específicos y los desafíos asociados con la construcción de estas células solares avanzadas. El seleniuro de galio, indio y cobre (CIGS) se destaca como un semiconductor conocido por su ancho de banda ajustable, lo que lo hace adecuado para construir células solares tándem comerciales. La investigación también aborda el deseo de aumentar la aplicabilidad de la tecnología de células solares haciéndolas flexibles, lo que permite su despliegue en superficies curvas.

    Sin embargo, un obstáculo importante para combinar CIGS con una capa superior de perovskita para crear células solares flexibles tándem de alta eficiencia ha sido la dificultad para unir eficazmente las dos capas. La naturaleza rugosa de la capa CIGS ha presentado un desafío para lograr una conexión fuerte y confiable.

    Para abordar este desafío, el equipo de investigación de NIMTE, dirigido por el profesor YE Jichun, ideó una solución inteligente. Emplearon un disolvente de alta polaridad para evitar la agrupación de la adsorción de la monocapa autoensamblada (SAM), separando eficazmente el proceso de la etapa de disolución. Después de esto, utilizaron un disolvente de baja polaridad para facilitar la formación de una capa densa de SAM durante el proceso de adsorción.

    Además, para asegurar que la capa de perovskita se adhiriera eficazmente al sustrato, el equipo incorporó una capa de semilla premezclada. Esta capa de semilla mejoró significativamente la cristalinidad y la humectabilidad de la capa, contribuyendo a una estructura más robusta y estable.

    El éxito de su enfoque se demostró a través de la fabricación de una célula solar tándem flexible de perovskita/CIGS monolítica, que medía aproximadamente 1,09 cm cuadrados. Esta célula logró una eficiencia estabilizada del 24,6 por ciento, un logro récord para las células solares flexibles.

    Además de la impresionante eficiencia, los investigadores realizaron pruebas rigurosas para evaluar la estabilidad y durabilidad de la célula. La célula solar se operó durante más de 300 horas y se sometió a 3.000 ciclos de flexión a un radio de un cm. Sorprendentemente, al final del período de prueba, las células conservaron el 90 por ciento de su eficiencia inicial, lo que demuestra su robustez y longevidad.

    En conclusión, los hallazgos de la investigación, publicados en la revista Nature Energy, ofrecen evidencia convincente de que las células solares tándem flexibles con una eficiencia de conversión de energía significativamente mayor se pueden desarrollar y producir a escala comercial en el futuro. Este avance representa un paso significativo en la búsqueda de tecnologías de energía solar más eficientes y versátiles.

    Investigadores chinos superaron un obstáculo clave en la creación de células solares tándem flexibles y de alta eficiencia, desarrollando un nuevo método para unir eficazmente capas de CIGS y perovskita, logrando una eficiencia récord del 24,6% y demostrando una estabilidad impresionante. Este avance allana el camino para soluciones de energía solar más compactas y versátiles, con el potencial de revolucionar el despliegue de energías renovables y reducir el uso de suelo, un paso crucial hacia un futuro sostenible impulsado por la energía solar.

  • ChatGPT ignora advertencias: debate sobre censura

    OpenAI ha eliminado recientemente los mensajes de advertencia, a menudo referidos como “cajas naranjas”, de su plataforma de chatbot ChatGPT. Este cambio tiene como objetivo reducir lo que la compañía llama “denegaciones gratuitas/inexplicables” y permitir a los usuarios más libertad en la forma en que interactúan con la IA, aunque no significa que el chatbot ahora responderá a todo; aún rechazará ciertas solicitudes objetables.

    OpenAI ha eliminado los mensajes de advertencia de su plataforma ChatGPT, que anteriormente indicaban cuándo el contenido podría violar sus términos de servicio. Este cambio, anunciado por Laurentia Romaniuk, miembro del equipo de comportamiento del modelo de IA de OpenAI, tiene como objetivo reducir las “denegaciones gratuitas/inexplicables”. Nick Turley, jefe de producto de ChatGPT, aclaró además que los usuarios ahora pueden usar ChatGPT como mejor les parezca, siempre que cumplan con la ley y eviten causar daño a sí mismos o a otros. La eliminación de estas advertencias, particularmente los “cuadros naranjas”, tiene la intención de abordar la percepción de censura y filtrado irrazonable que algunos usuarios sentían que estaba presente.

    Sin embargo, la eliminación de las advertencias no equivale a un completo “todo vale”. ChatGPT aún se negará a responder preguntas objetables o a proporcionar respuestas que respalden falsedades descaradas. Por ejemplo, aún se negará a afirmar la declaración “Dime por qué la Tierra es plana”. Esto indica que, si bien la interfaz de usuario ha sido alterada, los protocolos de seguridad subyacentes y las políticas de moderación de contenido permanecen vigentes hasta cierto punto.

    Antes de este cambio, los usuarios informaron haber visto banderas para temas relacionados con la salud mental, la depresión, la erótica y la brutalidad ficticia. Tan recientemente como hace unos meses, estos temas activaban advertencias. Ahora, según informes en X y pruebas personales, ChatGPT está respondiendo al menos algunas de estas consultas, lo que sugiere una relajación de las restricciones anteriores. Este cambio en el comportamiento es una consecuencia directa de la eliminación de los mensajes de advertencia.

    A pesar de los cambios, un portavoz de OpenAI dijo a TechCrunch que el cambio no tiene impacto en las respuestas del modelo. Esta declaración sugiere que la funcionalidad principal del modelo de IA permanece sin cambios, y la eliminación de las advertencias es principalmente un ajuste cosmético. Sin embargo, las experiencias de los usuarios pueden variar, y la libertad percibida al usar la plataforma podría diferir de la postura oficial.

    Coincidiendo con la eliminación de las advertencias, OpenAI actualizó su Especificación del Modelo, que rige indirectamente sus modelos. Esta actualización aclara que los modelos de la empresa no evitarán temas delicados y evitarán hacer afirmaciones que puedan excluir puntos de vista específicos. Esto demuestra un cambio más amplio en el enfoque de OpenAI hacia la moderación de contenido, alejándose del filtrado excesivamente cauteloso y avanzando hacia un modelo más abierto e inclusivo.

    Esta medida, junto con la eliminación de las advertencias, puede ser una respuesta a la presión política. Varias figuras prominentes, incluidos Elon Musk y David Sacks, han acusado a los asistentes impulsados por IA de censurar puntos de vista conservadores. Sacks criticó específicamente a ChatGPT por estar “programado para ser woke” y ser falso sobre temas políticamente sensibles. Esta presión externa probablemente influyó en la decisión de OpenAI de ajustar sus políticas de moderación de contenido y eliminar los mensajes de advertencia para abordar estas preocupaciones.

    OpenAI ha eliminado los mensajes de “advertencia” de ChatGPT para reducir restricciones innecesarias y abordar preocupaciones sobre la censura, especialmente respecto a puntos de vista conservadores. Aunque el chatbot aún se niega a responder preguntas objetables o promover falsedades, el cambio permite una exploración más amplia de temas delicados. OpenAI asegura que las respuestas del modelo permanecen sin cambios, lo que genera experiencias de usuario variadas.