
¿El fin de la IA?
- Alejandro Manzano
- Opinion
- 21 de junio de 2025
El 30 de noviembre de 2022, OpenAI lanzó ChatGPT, su infame arma de destrucción cognitiva. Por espacio de tres años, las empresas líderes del sector tecnológico —apoyadas por una sarta de cómplices: medios de comunicación, instituciones educativas, gobiernos, influencers; ingenuos o dolosos, para fines prácticos, da igual— impusieron la mal llamada “IA” (LLMs y modelos generadores de imágenes, audio y video) en cuanto canal estuvo a su alcance. Entre la promoción constante y la integración forzada a través de apps, sitios web, plataformas, lograron que criticar se sintiera quijotesco: digas lo que digas, argumentes como lo argumentes, “la IA está aquí para quedarse”, “es una herramienta”, “pobre de ti si no tienes la mente abierta a la nueva tecnología.”
Pero, a pesar de todo, estas últimas semanas he notado un cambio. Ha sido un proceso lento, paulatino, incluso tímido, pero el entusiasmo general hacia la IA generativa se convierte en escepticismo que madura en desprecio. Una conclusión surgirá inevitable: para gran desgracia de los charlatanes de OpenAI (y de los demás como ellos), el público en general ha tenido amplia oportunidad de usar su producto, verlo en acción, observar sus efectos en otras personas; de sufrir las consecuencias.
Quizá es porque el MIT publicó un estudio en el que detalla cómo los LLMs destruyen las habilidades mentales de sus usuarios [que algunas personas han perdido el miedo a decir, de frente, que el emperador está desnudo, por “ludita” o “anticuada” que tal aseveración parezca. Quizá es porque, a través de los memes, las generaciones centennial y alfa lograron poner en ridículo el “potencial creativo” de la IA (saludos al camarada Tralalero Tralalá). Probablemente sea todo lo anterior, combinado con el hecho ineludible de que estas plataformas solo pueden “servir” para lastimar a individuos y disolver comunidades.
Cuando alguien critica el uso de ChatGPT (como yo suelo hacer), se estila agregar el paréntesis de que, en realidad, sí tiene un caso de uso porque sirve para hacer trampa en la escuela. Antes lo decía, parcialmente, en broma. Hoy opino que, tal vez, este factor esté siendo decisivo en el giro de la percepción pública de los antedichos modelos. Me explico:
Uno de los problemas básicos de la IA generativa, parecido al que también tuvieron estafas anteriores como las criptomonedas y los NFTs, es que no hay un caso de uso claro, evidente, óptimo. A diferencia del internet, los teléfonos inteligentes o (por considerar los argumentos del chantaje) la imprenta, ninguno de estos productos, en realidad, resuelve un problema específico que no se pudiera, ya antes, resolver por menor costo y con resultados mejores. Un bloque de texto todo feo (o, en su defecto, una imagen regurgitada horrenda) no equivale ni se compara al ahorro de tiempo que significaron los verdaderos parteaguas de las tecnologías de la información, máxime toda vez que a los engendros de la IA todavía hay que corregirlos, peor aún si ese mismo contenido-vómito envenenó la información con la que se entrena a sí mismo.
El ciclo de hype en torno a la IA fue un desfile de insultos a la inteligencia de los usuarios.
Esto no es, nada más, un juicio de valor. Yo sé (como sabemos todos) que, si, en mi trabajo, me piden que escriba algo y yo (por andar de “disruptivo”, “innovador”, “abierto a la realidad actual”) salgo con la ocurrencia de entregar algo vomitado por ChatGPT, mi patrón, por lo menos, me lo va a devolver. Cualquier adulto con dos o tan siquiera un dedo de frente sabe que lo que escupe una IA es ridículo, pésimo, patético, cuando no lleno de mentiras (“alucinaciones”, otra mentira: no tienen mente, no alucinan), justo el nivel de bobada que solo a un niño se le ocurre que el maestro tomará por buena. Si creen que soy un hater de la IA, los invito a platicar con cualquier docente que haya tenido el infortunio de encargar ensayos o resúmenes de lectura en el periodo 2022-2025. Esos son haters de los buenos, odio jurado y tiro cantado, lo de verdad.
Ojalá las actitudes terminen de amargarse y esta burbuja reviente cuanto antes. No le guardo rencor a las personas que cayeron en la estafa (porque, de entrada, sería odiar a millones). Al contrario, invito a mis lectores a reflexionar sobre cómo estos charlatanes —porque eso es lo que son: charlatanes, porque sabían perfectamente que lo que nos vendieron no sirve para hacer lo que prometían y, aún así, prefirieron mentirnos— se aprovecharon de los miedos y las angustias más nítidas de la mayor parte del mundo. Apelaron a la ansiedad por conseguir trabajo, al temor verosímil de quedar obsoletos, a la falsa esperanza de que aprender a hacer prompts era “actualizarse” y que había que hacerlo porque, de lo contrario, no tendríamos cómo ganarnos la vida ni proveer para los nuestros. Eso se llama cinismo, abuso, terrorismo psicológico o, para pronto, crueldad. Y tuvieron cómplices a cada paso y en todo nivel. Lo digo en tiempo pasado con afán de devenir profeta. Que la victoria de imponerle LLMs a todo el mundo se les convierta en derrota, que la gente pierda el miedo a pensar por sí misma y se libere (y que libere a los otros, se libere entre sí), que la siguiente gran estafa ya no tenga éxito y que Silicon Valley deje de arruinar el buen nombre de la Inteligencia Artificial.
Así sea.
- Foto de portada diseñada por Freepik.