La línea entre la inteligencia artificial y el trabajo humano se difumina cada vez más, y en algunos casos, se oscurece intencionalmente con fines de lucro. Este artículo detalla el caso de Albert Saniger, el fundador de la aplicación de compras Nate, quien enfrenta cargos por fraude por afirmar falsamente que su aplicación funcionaba con IA, cuando en gran medida dependía de cientos de contratistas humanos en Filipinas y Rumania para procesar las transacciones.
Albert Saniger, el fundador y ex CEO de la aplicación de compras Nate, ha sido acusado de defraudar a inversores por el Departamento de Justicia (DoJ). El núcleo de las acusaciones gira en torno a la tergiversación de la tecnología de la aplicación como inteligencia artificial cuando, en realidad, dependía en gran medida de trabajadores humanos.
Específicamente, el DoJ alega que Saniger afirmó falsamente que Nate estaba impulsada por IA, lo que permitía a los usuarios omitir los procesos de pago con un solo toque. Este fue un punto de venta clave, que atrajo una inversión significativa. Sin embargo, la realidad era muy diferente.
En lugar de IA, Nate dependía de cientos de trabajadores humanos, principalmente ubicados en centros de llamadas en Filipinas y Rumania, para completar manualmente las transacciones. Esto contrasta marcadamente con la funcionalidad anunciada y las garantías proporcionadas a los inversores.
Saniger aseguró repetidamente a los inversores que Nate no usaba “bots tontos”, lo que solidificó aún más la impresión de una IA sofisticada. Sin embargo, en el otoño de 2021, ordenó al equipo de ingeniería que desarrollara bots para automatizar algunas transacciones. Estos bots, sin embargo, se utilizaron junto con los equipos manuales, no como un reemplazo para ellos, lo que contradice la narrativa de la IA.
Nate recaudó con éxito más de 50 millones de dólares de inversores desde su lanzamiento, con una importante suma de 38 millones de dólares asegurada en 2021. Este éxito en la recaudación de fondos se atribuyó en gran medida a las afirmaciones de Saniger de que la aplicación completaba las compras de forma autónoma, excepto en raras ocasiones en las que la IA encontraba dificultades.
Una investigación de The Information en 2022 reveló el alcance de la participación humana. Fuentes indicaron que durante 2021, entre el 60% y el 100% de las transacciones de Nate se gestionaron manualmente en lugar de automáticamente. Esto contradice directamente las afirmaciones de automatización impulsada por IA.
Las consecuencias financieras de este engaño fueron graves. La acusación del DoJ afirma que Nate se vio obligado a vender sus activos en enero de 2023 después de agotar sus fondos, dejando a los inversores con pérdidas “casi totales”. Este fracaso financiero subraya la gravedad del presunto fraude.
Saniger, un hombre de 35 años de Barcelona, España, se enfrenta a graves repercusiones legales. Está acusado de un cargo de fraude de valores y un cargo de fraude electrónico. Cada cargo conlleva una pena máxima de 20 años de prisión, lo que destaca la gravedad de los presuntos delitos.
Este caso no es un incidente aislado. Se hace eco de una tendencia más amplia de empresas que tergiversan el trabajo humano como IA. Presto Automation, una empresa especializada en tecnología de automatización laboral, es otro ejemplo.
Presto Automation, en una presentación ante la SEC en diciembre de 2023, reveló que casi tres cuartas partes de los pedidos realizados por sus productos de pedidos por voz para comida rápida fueron asistidos por agentes externos. Esto contradice directamente sus afirmaciones anteriores de que el 95% de los pedidos se gestionaban sin intervención humana. Esto subraya aún más el potencial de prácticas engañosas en el floreciente panorama de la IA.
El fundador de la aplicación de compras Nate, Albert Saniger, enfrenta cargos por fraude por afirmar falsamente que su aplicación usaba IA, cuando en gran medida dependía de trabajadores humanos en Filipinas y Rumania para procesar transacciones. Nate recaudó más de $50 millones basándose en estas afirmaciones engañosas, fracasando finalmente y dejando a los inversores con pérdidas significativas. Este caso, junto con revelaciones similares sobre Presto Automation, destaca el creciente problema de empresas que presentan engañosamente trabajo humano como IA. Es un recordatorio contundente para evaluar críticamente las afirmaciones de automatización impulsada por IA y exigir transparencia en cómo se implementa realmente la tecnología.
Leave a Reply