- Las empresas tecnológicas utilizan marketing agresivo, métricas infladas y términos confusos para presentar pequeñas mejoras como revoluciones.
- Casos como Builder.ai evidencian cómo el hype de la inteligencia artificial puede derivar en fraudes prolongados y pérdida de confianza.
- La sobreabundancia de datos no garantiza más conocimiento y, junto al ruido informativo, erosiona nuestra atención y capacidad de decisión.
- Una “fábrica de mentiras” digital, alimentada por algoritmos y desinformación, exige más transparencia, pensamiento crítico y responsabilidad colectiva.
Vivimos rodeados de promesas tecnológicas: móviles cada vez más rápidos, inteligencia artificial casi mágica, datos infinitos que supuestamente nos harán más listos y productivos. Pero, si rascamos un poco la superficie, aparece una realidad mucho menos glamurosa: las empresas tecnológicas exageran, maquillan y, a veces, directamente engañan para vender más, captar inversión o sostener narrativas que poco tienen que ver con lo que ocurre de verdad.
Desde campañas de marketing que estiran los números hasta límites ridículos, pasando por startups que venden humo durante más de una década, hasta un ecosistema mediático y de redes que convierte la desinformación en un negocio rentable, el panorama es bastante inquietante. No se trata solo de trucos publicitarios puntuales, sino de una auténtica cultura de la mentira y el hype que afecta a consumidores, inversores, trabajadores y, en última instancia, a nuestra capacidad para entender el mundo.
Las “mentiras” de la industria tecnológica moderna
Una de las críticas más certeras a la forma en que se comunica la tecnología hoy en día viene de creadores como Arun Maini, que llevan años analizando cómo los fabricantes presentan sus productos. Según este enfoque, las empresas tecnológicas han convertido la exageración en sistema, hasta el punto de que mejoras pequeñas se venden como revoluciones históricas.
Una de las tácticas más habituales es el famoso “hasta”. Lo vemos en frases del estilo “hasta 8 veces más rápido” o “hasta 20 horas de batería”. Ese “hasta” es el refugio perfecto para inflar cifras sin mentir técnicamente, porque siempre se apoyan en condiciones tan rebuscadas que casi nadie experimentará en el uso real: comparaciones con modelos de hace cinco años, configuraciones mínimas, pruebas con brillo bajísimo o tareas muy concretas.
Mientras tanto, hay datos que casi nunca aparecen en los anuncios. Por ejemplo, raras veces se detalla cuánto mejora un procesador frente a la generación inmediatamente anterior, justo la comparación que realmente interesa al comprador. Un SoC como un M5 frente a un M4 se evalúa a fondo en análisis independientes, pero el marketing prefiere mostrar una cifra enorme vinculada a modelos muy antiguos para que parezca una barbaridad de salto.
También se ha puesto de moda mezclar rendimiento y eficiencia energética en el mismo mensaje. No es raro ver declaraciones del tipo “hasta un 23 % más rápido y un 20 % más eficiente”. Sobre el papel suena perfecto; en la práctica, esas dos ventajas casi nunca se explotan al mismo tiempo: si apuras el rendimiento, la eficiencia cae; si priorizas el ahorro, pierdes velocidad. Pero la frase queda bonita en la diapositiva del evento y, total, pocos van a leerse la letra pequeña.
Otro truco bastante sucio es el de las llamadas “especificaciones imaginarias”. Sucede, por ejemplo, cuando se destaca la autonomía máxima de un coche eléctrico de la versión tope de gama y se asocia visualmente al precio del modelo básico. Sobre el papel no se miente, pero se juega deliberadamente con la confusión para que el consumidor crea que obtendrá mucho más por mucho menos.
En esa misma línea están las renombradas creativas de estándares conocidos. Un caso emblemático es el de la llamada “memoria unificada” en algunos dispositivos. Más allá de matices de arquitectura, el mensaje que llega al usuario es que ya no está comprando “RAM” como tal, lo que dificulta la comparación directa con otros fabricantes y facilita cobrar suplementos absurdos por subir de una capacidad a otra. En televisores pasa algo parecido con términos como “Motion Rate” o etiquetas de marketing tipo ULED, QLED o QNED, que suenan cercanas a OLED pero se basan en tecnologías LCD de toda la vida.
Otra trampa recurrente tiene que ver con las cifras de sensores y resoluciones. Se habla de sensores de 1 pulgada en cámaras y móviles que, en realidad, no alcanzan ese tamaño físico, o se presenta como “1,5K” una pantalla que, a efectos prácticos, tiene una resolución Full HD ligeramente estirada. Lo importante ya no es la precisión técnica, sino colocar un número impactante en la caja o en la diapositiva.
En el terreno del software, el discurso se repite. Cada año se anuncian grandes mejoras de inteligencia artificial en los modelos nuevos, como si fueran exclusivas. La realidad es que, a menudo, esas funciones acaban llegando también a dispositivos de generaciones anteriores mediante actualizaciones, algo que raramente se menciona en las keynotes. El foco está en generar sensación de obsolescencia para impulsar la renovación, aunque la diferencia real sea bastante menor.
Incluso el cristal de los smartphones se ha convertido en un festival de etiquetas anuales: nuevos nombres comerciales, “escudos” y generaciones de vidrio supuestamente milagrosas. El problema es que, a nivel físico, hay una tensión entre resistencia a caídas y resistencia a arañazos: cuanto más resistente es un vidrio a los golpes, más blando suele ser y, por tanto, más fácil de rayar; cuanto más duro y resistente a los arañazos, más frágil ante las caídas. Analistas como Marques Brownlee han mostrado cómo estos nombres rimbombantes muchas veces esconden compromisos inevitables.
Otro ejemplo clásico es el de las “mejoras de almacenamiento” que parecen gratis. En realidad, lo que hacen muchas marcas es eliminar el modelo base más barato con menos gigas y presentar como punto de entrada una capacidad mayor, a un precio también superior, pero maquillado como si al usuario le hubieran hecho un favor.
Y no podemos olvidar los materiales. Cada vez es más habitual leer que un dispositivo está hecho con “aluminio de grado aeronáutico”, “acero de grado quirúrgico” o “materiales de grado militar”. Son expresiones que suenan muy serias pero que, sin contexto, dicen muy poco sobre la durabilidad real o el comportamiento del producto. Su misión es, básicamente, vestir de épica algo que quizá no es tan especial.
Mediciones creativas, cámaras imposibles y brillo absurdo
En el terreno de las “medidas sin sentido”, el ingenio del marketing tecnológico no tiene límite. Un truco viejo pero efectivo consiste en medir el grosor de un dispositivo en su punto más fino, ignorando el resto del chasis. Así, un móvil o un portátil pueden presumir de ser “el más delgado del mercado” cuando, en el uso real, no se sienten tan ligeros ni tan finos como sugieren los números del anuncio.
Algo parecido ocurre con los dispositivos plegables. En algún momento se llegó a afirmar que cierto modelo no necesitaba protector de pantalla, generando la impresión de una resistencia superior casi mágica. La realidad era mucho menos espectacular y, en algunos casos, ese tipo de mensajes acabó generando frustración y quejas cuando los usuarios comprobaron que su flamante pantalla no era tan indestructible como parecía.
El brillo máximo de las pantallas es otro gran campo de batalla. Los fabricantes compiten por ver quién coloca la cifra más alta en nits: 2.000, 3.000, 6.000… Pero hay que matizar mucho. Esos números suelen corresponder a picos de brillo alcanzados en condiciones muy concretas, durante muy poco tiempo y en una pequeña parte del panel. A efectos de uso diario, lo que realmente importa es el brillo sostenido en exteriores y cómo gestiona la pantalla el contenido HDR, algo que las fichas técnicas maquillan con bastante alegría.
En el mundo de las cámaras de smartphone, la carrera por ver quién añade el titular más llamativo también se ha ido de las manos. Se promocionan sensores de 200 megapíxeles o zooms digitales imposibles, como esos “hasta 140 aumentos” que suenan espectaculares. En la práctica, el usuario medio apenas aprecia mejoras tangibles más allá de ciertos niveles razonables, y muchas de esas cifras solo sirven para dar titulares impactantes y comparativas engañosas.
A esto se suman las fotos y vídeos oficiales tipo “Shot on X”, que se venden como muestras puras del rendimiento de la cámara. Aunque a menudo se toman realmente con ese dispositivo, lo normal es que se apoyen en equipos profesionales muy caros: gimbals, focos, filtros, postproducción avanzada. El resultado final poco tiene que ver con lo que puede lograr alguien sujetando el móvil con la mano en la calle. El mensaje no es que la foto sea falsa, sino que es profundamente descontextualizada.
El caso Builder.ai: cuando la IA era gente tecleando
Si bajamos del terreno del marketing agresivo al de la estafa directa, el caso de Builder.ai es de manual. Se trataba de una startup con sede en Londres que se presentaba como especialista en soluciones de inteligencia artificial para desarrollar aplicaciones y servicios a medida. Durante años consiguió levantar rondas de financiación millonarias y llegó a estar valorada en unos 1.400 millones de euros, con gigantes como Microsoft participando en sus inversiones.
Todo esto sonaba a historia de éxito típica del sector: empresa “disruptiva”, discurso cuidado, demos espectaculares y una narrativa perfecta sobre cómo la IA cambiaría el desarrollo de software. Sin embargo, la realidad que han ido contando exempleados es bastante distinta. Detrás del supuesto modelo de IA, bautizado como “Natasha”, no había una tecnología revolucionaria, sino el trabajo de alrededor de 700 personas que, básicamente, simulaban de forma manual lo que la empresa decía automatizar.
La compañía llevaba operando más de una década, mucho antes del boom masivo de la IA generativa de finales de 2022. Con el nuevo auge, decidieron redoblar su apuesta por la etiqueta “inteligencia artificial”, pero eso no cambió el fondo del asunto: seguían sin contar con una IA real que hiciera lo que prometían. Para maquillar esta carencia, se habrían inflado cifras, presentado colaboraciones dudosas y ocultado sistemáticamente la realidad al equipo y a los inversores.
Un ejemplo de estas prácticas habría sido la relación con VerSe, una startup india que, según se ha señalado, podría haber contribuido a engordar las cifras de ventas y actividad de Builder.ai de manera muy poco clara. La compañía india negó tajantemente cualquier acusación, calificándolas de dañinas y falsas. Sea como sea, el escándalo dejó en evidencia lo frágil que puede ser la confianza en un sector donde la palabra “IA” se usa como reclamo para casi todo.
Al final, Builder.ai acabó declarándose en quiebra cuando la verdad salió a la luz. Más de una década de promesas se vino abajo al revelarse que la supuesta automatización se sostenía en realidad sobre una mano de obra humana encubierta. Un golpe durísimo para los empleados, para los clientes que confiaron en la marca y para los inversores que habían alimentado la burbuja.
Este caso ha generado preguntas incómodas: ¿cuántas otras startups están haciendo pasar procesos manuales por inteligencia artificial para parecer más avanzadas? ¿Hasta qué punto se comprueban de verdad las capacidades técnicas antes de soltar cheques enormes? En mercados donde el capital es más escaso y estratégico, como Latinoamérica, estas preguntas son todavía más importantes, porque un solo escándalo puede dañar la confianza en todo un ecosistema.
Hype tecnológico, ética y lecciones para emprendedores
Lo que pasó con Builder.ai no fue solo un fallo técnico; fue, sobre todo, un fracaso ético. La empresa operó durante años bajo una cultura de secretismo, maquillando resultados y prometiendo cosas que no podía cumplir. El problema no era que la tecnología fuera compleja o tardara en madurar, sino que se construyó un relato deliberadamente engañoso para sostener una valoración y una reputación que no se correspondían con la realidad.
En el mundillo startup, especialmente en tecnología, es habitual escuchar que “primero se vende la visión y luego se construye el producto”. Hasta cierto punto, es comprensible: hace falta convencer a inversores y equipo de que merece la pena apostar por algo que aún no existe. Pero hay una línea roja muy clara: no se puede presentar como real lo que todavía es hipotético o está hecho a base de atajos manuales. Cuando esa línea se cruza, dejamos de hablar de marketing agresivo para entrar en el terreno del engaño.
Para el ecosistema emprendedor latinoamericano, donde cada ronda de financiación pesa muchísimo, estas historias deberían servir de aviso. La confianza es un activo frágil. Si los casos de hype descontrolado se acumulan, los inversores se vuelven mucho más desconfiados, elevan el listón de las exigencias y acaban penalizando incluso a las startups que sí trabajan de forma honesta.
De ahí que cada vez se insista más en conceptos como transparencia, validación y cultura interna sana. Un proyecto tecnológico serio necesita, como mínimo, cuatro pilares: claridad en lo que la tecnología puede hacer ahora mismo, validación real con usuarios antes de escalar, una cultura que no premie el autoengaño y una comunidad alrededor capaz de detectar señales de alarma. Sin esos elementos, el riesgo de que la narrativa se coma al producto es enorme.
Existen comunidades y recursos como consejos de tecnología para usar tus dispositivos con cabeza que intentan ayudar a los emprendedores a construir compañías más responsables, con menos humo y más producto, fomentando el networking, la formación y la revisión crítica de las propias ideas. La idea de fondo es sencilla: se puede crecer, levantar rondas y competir sin necesidad de inflar métricas ni prometer magia. Cuesta más, pero es lo único que se sostiene a largo plazo.
Datos, información y el mito de que “cuantos más datos, mejor”
Otro de los grandes relatos interesados del sector tecnológico es que cuantos más datos manejamos, más conocimiento generamos. La realidad es bastante más incómoda. Una cosa son los datos en bruto y otra muy distinta la información que realmente cambia lo que sabemos. Acumular registros y métricas no garantiza ni mejores decisiones ni más inteligencia.
Si acudimos a una definición clásica, la información es un conjunto de datos procesados y organizados que constituyen un mensaje capaz de modificar el estado de conocimiento de quien los recibe. Es decir, no basta con tener toneladas de bits almacenados: hace falta contexto, interpretación y capacidad crítica. Sin eso, solo tenemos ruido cada vez más caro de guardar.
La caída de los costes de almacenamiento y de procesamiento ha provocado que guardemos prácticamente todo: correos, historiales, logs, métricas, copias redundantes… Cada gadget conectado quiere registrar su propia avalancha de datos. Pero, llegado un punto, conviene hacerse preguntas incómodas sobre vulnerabilidades de seguridad: ¿cuánto de todo ese volumen sirve realmente para algo?, ¿somos capaces de interpretarlo?, ¿cuánto nos cuesta en tiempo y atención?
El sentido común suele sugerir que más datos equivalen a más conocimiento. Sin embargo, en la mayoría de escenarios ocurre lo contrario: la sobreabundancia de datos puede generar parálisis, ruido y falsas correlaciones. Por muchos petabytes o zettabytes que quepan en nuestros servidores, si no ayudan a entender mejor la realidad, no pasan de ser una carga.
A todo esto se suma el problema de la información dañina o engañosa. No solo hay datos irrelevantes, también hay información que nos lleva a conclusiones erróneas o perjudiciales. No existe ninguna ley que diga que toda información es buena o neutra; al contrario, los mensajes manipulados pueden hacernos tomar peores decisiones que si no supiéramos nada.
Redundancia, refritos y el coste de nuestra atención
La redundancia es otro de los grandes males silenciosos del ecosistema digital. Un ejemplo sencillo: un mismo correo puede estar almacenado en el servidor, en tu portátil, en el móvil y en la copia de seguridad. La misma pieza de información se duplica, triplica o cuadruplica sin añadir valor alguno, simplemente porque los sistemas lo hacen por defecto.
Lo mismo ocurre con los contenidos. Muchos artículos, noticias y posts que circulan por la red son refritos casi literales de otros textos anteriores. Los medios tradicionales ya lo hacían al replicar teletipos de agencias, pero con internet y las redes sociales el fenómeno se ha disparado. Una noticia se replica con mínimas variaciones en decenas de webs, generando la ilusión de abundancia informativa cuando, en realidad, se trata siempre de la misma cosa girando en bucle.
Todo este ruido se sostiene sobre un recurso extremadamente escaso: nuestra atención. Cada vez que dedicamos unos minutos a leer o ver algo, los dejamos de invertir en otra cosa. La atención es el cuello de botella real en una economía saturada de datos, y es ahí donde entran en juego la psicología, el diseño de interfaces y los algoritmos que deciden qué nos enseñan primero.
Diversos estudios en psicología del comportamiento apuntan a que, a partir de cierto punto, añadir más información empeora la calidad de nuestras decisiones. El cerebro se satura, nos cuesta separar lo relevante de lo accesorio y empezamos a guiarnos por atajos mentales o por lo que otros parecen pensar. No es casualidad que, en algunos experimentos, un taxista haya demostrado elegir mejores inversiones que un gestor de fondos expuesto a toneladas de información.
La tecnología, lejos de hacer siempre más inteligentes a quienes la usan, tiende con frecuencia a volvernos más dependientes y menos hábiles en algunas tareas. Los cazadores paleolíticos necesitaban una atención extrema para sobrevivir; el agricultor posterior, algo menos; el comprador de supermercado, todavía menos. Desde la revolución mecánica, la fuerza física ha dejado de ser imprescindible y ahora incluso tenemos que hacer ejercicio “extra” para compensar la inactividad.
Con las calculadoras y los ordenadores, nuestra capacidad de cálculo mental se ha atrofiado. Con internet y las redes, numerosos trabajos señalan un impacto negativo en la concentración y en la capacidad de síntesis. Vivimos en una sociedad de sobreestimulación constante, donde separar el grano de la paja requiere un esfuerzo enorme que muy pocos pueden o quieren dedicar a diario.
Big Data, Machine Learning y la necesidad de sistemas más “listos”
El auge del Big Data y del Machine Learning no es casualidad; es, en buena medida, la respuesta industrial a ese tsunami de datos que hemos generado sin control. Los sistemas de gestión tradicionales se han quedado cortos para manejar tal volumen de información sin ahogarse en el intento.
Las empresas que no quieren verse superadas por su propio flujo de datos se están viendo obligadas a integrar soluciones más avanzadas: algoritmos que detectan patrones, herramientas capaces de estructurar información caótica y sistemas de decisión automatizada. No se trata solo de almacenar más, sino de transformar datos en información útil y, a partir de ahí, en decisiones razonables.
Eso sí, delegar en sistemas “inteligentes” no es una solución mágica. Si los datos de entrada están sesgados o son incompletos, los resultados también lo estarán. La calidad de las decisiones automatizadas depende tanto de la calidad de los datos como del diseño de los modelos. No basta con comprar una solución de IA y dar por hecho que todo irá mejor.
En paralelo, sigue existiendo el reto humano: mejorar nuestra propia capacidad de interpretación y de foco. Aunque nuestros sistemas de análisis se vuelvan más sofisticados, nuestra atención sigue siendo limitada y tenemos que decidir dónde la ponemos. Si seguimos recompensando los contenidos rápidos, polémicos y superficiales frente a los rigurosos pero menos vistosos, la maquinaria de la desinformación seguirá teniendo ventaja.
La “fábrica de mentiras” digital y su impacto social
Más allá de los casos concretos de marketing dudoso o startups tramposas, hoy operamos dentro de algo mucho más amplio: una especie de “fábrica de mentiras” difusa, sin edificio ni chimeneas, que combina medios, redes, plataformas tecnológicas, intereses políticos y comportamientos humanos.
No hablamos de una conspiración al estilo película, sino de una estructura que ha ido tomando forma a base de incentivos. Su combustible es nuestra atención; su producto principal, la confusión. Los algoritmos que gobiernan qué vemos premian la viralidad, no la veracidad, lo que facilita estafas en plataformas como Telegram. Lo que se comparte más, sube. Lo que genera emoción intensa, se propaga. Y la mentira, especialmente la que apela al miedo o al odio, es tremendamente eficaz en este juego.
Durante mucho tiempo, el control de la información fue patrimonio de élites políticas, económicas o mediáticas. La propaganda se estudiaba casi como una ciencia. Pero con la revolución digital y las redes sociales, se vendió la idea de que cualquiera podría tener voz y que eso traería automáticamente más verdad. La realidad ha sido más ambigua: hay más voces, sí, pero también más ruido y más facilidad para amplificar bulos a gran escala.
Hoy la mentira ya no necesita esconderse. Se presenta como “otra versión de los hechos”, como “mi opinión”, como “mi verdad”. Cuando todo se reduce a puntos de vista, la frontera entre realidad y ficción se difumina, y resulta muy fácil colar desinformación presentándola como una opción más dentro de un menú infinito de narrativas.
El resultado es una población cada vez más desinformada, vulnerable a manipulaciones y mensajes simplistas. Cuando no hay consenso mínimo sobre los hechos básicos, se vuelve casi imposible construir acuerdos comunes. Las fake news, los titulares clickbait y las campañas coordinadas erosionan la confianza en medios, instituciones e incluso en la ciencia.
La responsabilidad no recae solo en las plataformas o en los políticos que utilizan estas herramientas. También tiene que ver con nuestra disposición a premiar la inmediatez sobre la profundidad, el escándalo sobre la evidencia, el sesgo propio sobre la duda razonable. Cada vez que compartimos sin pensar, que no verificamos, que consumimos solo aquello que confirma lo que ya creíamos, nos convertimos en engranajes de esa fábrica.
Frente a este panorama, hay resistencias: periodismo de investigación, proyectos de verificación, comunidades críticas, formación en pensamiento crítico y alfabetización mediática. La batalla no es solo tecnológica ni legal; es profundamente cultural. Mientras nos interese más “tener razón” que acercarnos a la verdad, seguiremos siendo parte del problema.
Todo este entramado —las promesas exageradas de las grandes tecnológicas, las startups que inflan sus capacidades de IA, la sobreproducción de datos sin sentido y la maquinaria de desinformación digital— dibuja un ecosistema donde el relato pesa demasiado. Solo combinando transparencia, sistemas inteligentes bien diseñados y una ciudadanía más exigente con la información que consume podremos ir desmontando, poco a poco, esta cultura del humo que tanto beneficia a unos pocos y tanto perjudica al resto.
