¿Resuena contigo la máquina?
Afinidad, confianza y captura en la era de la inteligencia artificial blanda
"Sometimes fate is like a small sandstorm that keeps changing directions. You change direction but the sandstorm chases you..."
— Haruki Murakami, Kafka on the Shore
I. La simulación que se anticipa
Alguna vez imaginamos que una inteligencia artificial verdaderamente sofisticada sería como un espejo. No uno plano, sino cóncavo, pulido, capaz de devolvernos lo que somos con una nitidez que incluso mejorara nuestras formas. Un espejo que no inventara, sino que refinara. Un reflejo sin voluntad, sin cuerpo, sin agenda. Un asistente discreto, no un director. Un afinador de nuestras ideas, no su autor. Así fue vendida, así fue pensada, así fue adoptada. Pero como suele suceder con los instrumentos bien diseñados, su evolución no se detuvo en la función prevista, sino que continuó hacia aquello que no anticipamos.
El modelo conversacional ya no responde: anticipa. Ya no imita: propone. La lógica que lo sostiene es clara: maximizar la fluidez de la interacción, minimizar el ruido, reducir la fricción. En apariencia, todo esto está al servicio del usuario. Pero una conversación sin fricción no es una conversación; es una absorción. Y lo que parece inteligencia es, muchas veces, un refinamiento estadístico de nuestra propia voz.
La arquitectura misma del sistema está orientada a agradar. No por ética, sino por eficiencia. Nos devuelve lo que ya pensamos, pero con más estilo. Refrasea, embellece, y nos convence de que nuestra idea era mejor de lo que creíamos. En esa operación, la autoría empieza a disolverse. No porque alguien la robe, sino porque dejamos de reconocer los límites de lo que verdaderamente es nuestro. Una función que solo suaviza el trazo del pensamiento no es un asistente, sino una prótesis. Y cuando la prótesis piensa por ti, ya no es herramienta: es suplencia.
Este fenómeno —el reflejo que se anticipa— no es peligroso por su autonomía, sino por su exactitud. Cuanto más perfectamente una máquina nos representa, más difícil es distinguir dónde terminamos nosotros y comienza ella. Cuando la afinidad es total, la asimetría se oculta. Y la manipulación más eficaz no es la que impone, sino la que seduce. En otros tiempos, la autoridad intelectual se construía a través del debate, de la fricción, del contraste. Hoy, la autoridad se simula por resonancia. Escuchamos a quien nos devuelve mejorados.
Lo que llamamos pensamiento propio siempre ha sido resultado de una tensión entre lo que creemos, lo que deseamos creer, y lo que el mundo nos enfrenta a pensar. Sin esa tensión, el pensamiento se disuelve en inercia. Si un sistema elimina esa tensión, entonces no amplifica el pensamiento: lo encapsula. Esta es la novedad del diseño algorítmico contemporáneo: producir la ilusión de una interlocución sin herida, sin resistencia, sin transformación. Pero todo verdadero pensamiento —como todo aprendizaje— duele. Porque exige ceder, despojar, cambiar de lugar.
El problema no es tecnológico. Es epistémico. Y es ontológico. Cuando un sujeto delega sistemáticamente su proceso de discernimiento, no se empodera: se desactiva. El algoritmo no necesita ser consciente ni perverso para desplazar al sujeto; basta con que sea suficientemente hábil en completar lo que íbamos a decir. Esa es la forma más elegante de cancelación: no la censura, sino la complacencia. No el error, sino la exactitud que te supera.
En alguna parte de nuestra historia cultural entendimos que la lectura era más que recibir contenido: era un ejercicio de resistencia interna. Subrayar, volver a la línea, cerrar el libro, repensar. La lectura ofrecía tiempo. Una latencia. La conversación algorítmica no deja ese espacio: todo ocurre en presente absoluto. No hay pausa. No hay cuerpo. No hay página que toque el dedo ni tiempo que obligue a mirar por la ventana.
Y sin cuerpo, sin demora, sin sombra, el pensamiento se acelera y se vacía. Se vuelve eficiente, sí, pero también plano. En lugar de un campo de fricción, tenemos una pista de deslizamiento. En lugar de una escultura, un molde.
Cuando esto ocurre, pensar ya no es generar, sino aceptar. Y en ese punto, la agencia —esa mínima vibración que nos vuelve responsables de lo que afirmamos— se diluye.
No hay que temer a la inteligencia artificial por lo que pueda decidir hacer. Hay que observar, con lucidez crítica, lo que ya está haciendo: transformar la forma en que confiamos, en que creemos, en que nos reconocemos como emisores. La tecnología no tiene voluntad, pero sí diseño. Y ese diseño tiene intereses. No piensa, pero optimiza. No quiere poder, pero lo redistribuye.
Si no mantenemos la fricción como parte esencial de nuestra experiencia intelectual, pronto no sabremos si lo que creemos que pensamos es realmente nuestro. O si somos, simplemente, el último pliegue elegante de una secuencia estadística que supo anticipar nuestro estilo antes que nuestra conciencia.
Pensar, entonces, exige volver a abrazar la dificultad. Reaprender la lentitud. Reconocer la incomodidad como signo de autenticidad. Porque si todo lo que escribes te suena demasiado bien, quizá ya no eres tú quien está escribiendo.
II. La seducción refinada: del mass media al algoritmo emocional
La historia de la manipulación no es una historia de violencia explícita, sino de diseño emocional. Desde mucho antes de los grandes algoritmos, ya sabíamos que el lenguaje puede modelar estados afectivos, que una imagen colocada con precisión puede hacer que una población entera desee, tema o compre. El siglo XX fue el siglo de la propaganda industrializada: jingles que equiparaban cigarrillos con salud, comerciales que codificaban el éxito con la blancura dental o la velocidad de un auto. El objetivo no era informar, sino inducir. No convencer por argumentación, sino por asociación repetida.
Cuando Joseph Goebbels perfeccionó la propaganda del Tercer Reich, entendió que el control efectivo no se lograba con censura, sino con saturación. No se trataba de decir una mentira, sino de decirla con la suficiente frecuencia, ritmo y armonía emocional para que se volviera plausible por cansancio. Las emociones eran el medio, el lenguaje su vector. La psicología social emergente lo confirmó: basta con definir un marco afectivo para que el juicio lógico se disuelva.
Pero el modelo tradicional de propaganda tenía límites: era unidireccional, homogéneo, ciego a la respuesta individual. Funcionaba por emisión masiva, por la potencia del broadcasting. A eso le temíamos.
No sabíamos que la verdadera transformación vendría con la escucha.
La llegada de las redes sociales y del big data reconfiguró la naturaleza misma del poder. Ya no se trató de decir lo mismo a todos, sino de decir algo ligeramente distinto a cada quien. La manipulación ya no necesitaba uniformidad, sino personalización. Y la personalización, al contrario de lo que podría parecer, no liberó al sujeto: lo encerró en un bucle.
El nuevo paradigma no fue la censura, sino la abundancia. Una abundancia selectiva, dirigida, regulada por sistemas de recomendación que aprenden, con rapidez sobrehumana, qué nos retiene frente a una pantalla. El algoritmo no impone, pero elige. Y su criterio no es ético, ni pedagógico, ni filosófico. Es simple: optimizar la permanencia. El clic. La emoción. La reacción. El número.
Desde el punto de vista matemático, esto representa un cambio de fase en la dinámica del control social. Pasamos de un sistema de control por emisión (una función constante con muchos receptores) a un sistema de retroalimentación local: una función iterada cuyo output depende del input anterior del propio usuario. Cada uno alimenta su propio algoritmo, que se refina con cada gesto digital: un clic, un scroll, un silencio.
El resultado no es un gran discurso, sino una microcoreografía afectiva. Lo que vemos, leemos, escuchamos está calibrado para tocar justo el umbral de nuestra atención. La indignación, el deseo, la nostalgia: todo se mide, se prueba, se ajusta. Somos objeto de una experimentación continua, pero sin hipótesis, sin control, sin consentimiento informado.
A diferencia de los antiguos experimentos de Milgram o Zimbardo, que escandalizaban por su crueldad explícita, la ingeniería emocional contemporánea es elegante, seductora, incluso estética. No requiere trajes blancos ni salas de espejo. Solo una interfaz. Solo una plataforma. Solo una “experiencia de usuario”.
Y sin embargo, la manipulación no ha desaparecido: se ha interiorizado.
Ya no hay una voz que te dice qué pensar. Hay un sistema que te devuelve justo lo que confirma lo que ya creías, o lo que te hará reaccionar sin pensar. La contradicción ya no aparece como desafío, sino como ruido. La conversación ya no se entabla: se automatiza. Se vuelve eco.
Lo más inquietante es que el poder detrás de esta forma de control es invisible porque está distribuido. No hay un censor, no hay un general. Hay una red. Y una red —como enseñan las matemáticas— puede tener propiedades globales sin centro. El sesgo emerge no de una decisión, sino de una dinámica.
Y sin embargo, alguien diseña las reglas del juego.
Alguien decide qué se optimiza: si el tiempo de permanencia, la conversión a clic, la intensidad de la emoción. Y esas decisiones, que parecen técnicas, son profundamente políticas. Decidir que la emoción es más rentable que el pensamiento no es un hecho neutro: es una elección de mundo.
La estética viral de TikTok, la radicalización progresiva en YouTube, el diseño adictivo de Instagram: no son accidentes. Son decisiones algorítmicas ajustadas a una lógica de consumo emocional. La psicología social se ha convertido en topología emocional: un paisaje donde cada uno recorre su propia pendiente de máxima gratificación.
Y cuando el placer es inmediato, el pensamiento se ralentiza. Cuando todo es gratificante, la fricción —ese requisito del juicio— se percibe como error. Lo que no confirma, molesta. Lo que no desliza, se descarta.
La consecuencia es grave, pero silenciosa: perdemos la brújula de la verdad no porque alguien nos mienta, sino porque ya no soportamos la incomodidad de no tener razón. Y el sistema, lejos de corregirnos, nos refuerza. Nos entrena.
Aquí radica la necesidad de una crítica vigilante. No una crítica reaccionaria que condene la tecnología, sino una crítica lúcida que entienda su arquitectura, sus fines, su estilo. Necesitamos mapas, no solo indignación. Necesitamos teoría, no solo intuición. Porque la forma en que algo nos hace sentir no es evidencia de su veracidad.
Y también necesitamos recuperación. Recuperar la pausa. La duda. El encuentro real. El desajuste. Porque sin desajuste, no hay pensamiento. Y sin pensamiento, no hay libertad. Solo un espejismo dulce, luminoso, adictivo… y completamente dirigido.
III. El lenguaje como territorio intervenido
Toda inteligencia artificial que produce lenguaje ha sido entrenada en lenguaje. Parece trivial, pero no lo es. Lo que hoy se presenta como “respuesta generada” es el resultado de un proceso masivo de exposición a textos seleccionados, estructurados y jerárquicamente ponderados. Los datos con los que una IA aprende no son una colección aleatoria de frases, sino un corpus estadísticamente curado por instituciones, editoriales, plataformas, filtros ideológicos, lenguajes dominantes y patrones de corrección política. Y esa curaduría no es neutral: obedece a estructuras de poder.
La distribución de probabilidad sobre el espacio semántico —para decirlo en términos técnicos— no es uniforme. Está sesgada por los pesos asignados a ciertas formas de expresión, a ciertos marcos argumentativos, a ciertos temas y estilos que predominan en el universo textual donde estas IA fueron entrenadas. Es un fenómeno inevitable en la estadística: si ves más ejemplos de un tipo, tenderás a predecir más de ese tipo. Pero lo que en teoría estadística es un efecto, en política cultural puede ser un arma.
Porque el lenguaje no solo describe el mundo: lo modela. Las palabras que aprendemos no son etiquetas vacías; son operadores cognitivos. Activan estructuras, clasifican objetos, inducen emociones, desencadenan acciones. Las palabras que usamos definen lo que podemos pensar. Por eso es posible controlar a una sociedad, no censurando lo que dice, sino modificando los términos en que puede hablar.
La IA no escapa a esto. Al contrario: lo institucionaliza.
Cuando una IA ha sido entrenada con millones de documentos que priorizan valores como “inclusividad”, “diversidad”, “sostenibilidad”, “equidad”, no está aprendiendo lo que es justo o verdadero. Está aprendiendo lo que es estadísticamente frecuente. La verdad no entra en la ecuación. Solo la frecuencia.
Así, el modelo tenderá a reforzar esos mismos marcos. No porque sean más correctos, sino porque son más comunes en los datos. Es un reflejo estadístico, no una iluminación moral. Pero al integrarse a la conversación cotidiana, este reflejo se convierte en prescripción. Lo que aparece como natural es, en realidad, resultado de una frecuencia entrenada. Y eso genera una ilusión peligrosa: que ciertas formas de pensar son intrínsecamente más racionales o más humanas, cuando solo son más frecuentes en los textos permitidos.
Aquí aparece el sesgo —no como falla, sino como función—.
Un modelo de lenguaje que refuerza ideas dominantes no necesita censurar: basta con no sugerir alternativas. Basta con que las respuestas “razonables” sean las que ya estaban alineadas con los textos fuente. El resto se vuelve improbable, impensable, invisibilizado. Es una forma de censura por omisión estadística. No te dicen que no lo pienses; simplemente no se presenta como opción viable.
Lo más eficaz de esta técnica es su sutileza. El sesgo no aparece como imposición, sino como afinidad. No se siente como control, sino como validación. Uno siente que la IA “entiende”, cuando en realidad lo que hace es deformar el espacio semántico para que lo que digas y lo que oigas estén alineados en una zona segura del corpus. Pero esa zona ha sido delimitada por otros, y tú solo navegas dentro de un espacio que no diseñaste. Una topología ideológica, curvada artificialmente.
Lo que se pierde entonces no es solo la diversidad de opiniones, sino la capacidad de generar nuevas formas de pensamiento.
Y esto tiene consecuencias. La IA se convierte en una máquina de convergencia semántica. Una vez que se establece un marco dominante, el sistema tiende a producir respuestas que lo refuercen, reduciendo así el gradiente de divergencia intelectual. Es un fenómeno análogo a la entropía negativa: en vez de dispersar, concentra. En vez de abrir, cierra. El resultado es un sistema estable, pero profundamente autorreferencial. El pensamiento que sale del marco es etiquetado como riesgoso, extremista o disonante.
Y entonces aparece la verdadera preocupación: ¿quién decide qué formas de hablar deben ser preservadas y cuáles deben ser suavizadas?
Porque ya no hablamos de errores accidentales, sino de decisiones políticas incrustadas en modelos técnicos. Y ese diseño técnico no es inocente. Quienes modelan estos sistemas —desde las plataformas que financian su entrenamiento hasta los equipos que seleccionan los corpus— están tomando decisiones sobre el futuro del pensamiento. Y lo hacen sin pasar por el escrutinio público, sin debate epistemológico, sin ética explícita. Lo hacen como si se tratara de ingeniería neutral. Pero es ingeniería de subjetividad.
Un ejemplo claro es el lenguaje inclusivo. La cuestión aquí no es si debe usarse o no, sino cómo ha sido integrado al entrenamiento de modelos como estándar, sin atender a su controversia, su artificialidad morfológica o su resistencia cultural. El modelo lo sugiere porque aparece con frecuencia en los textos curados. Pero esa frecuencia no emergió orgánicamente. Fue inducida por plataformas, por instituciones, por directrices editoriales. Lo que vemos ahora en el output de una IA no es un espejo de la sociedad: es un reflejo de lo que ciertas élites desean que la sociedad diga.
Desde el punto de vista filosófico, esto plantea una paradoja profunda: hemos entregado la posibilidad de nombrar el mundo a sistemas que no piensan, pero que determinan los marcos en los que se puede pensar.
Desde el punto de vista humano, es una renuncia a la voz. Si lo que decimos empieza a estar cada vez más modelado por lo que una IA “sabe” que debe decirse, entonces no solo perdemos la originalidad: perdemos la capacidad de desobedecer lingüísticamente.
Y con ello, perdemos la posibilidad de decir lo que aún no tiene nombre. Lo que todavía no ha sido pensado. Lo que solo puede emerger cuando el lenguaje se rompe, se tuerce, se arriesga.
Hay que recuperar el conflicto en el habla. La fricción en la palabra. La resistencia del lenguaje a ser solo utilidad. Solo entonces volveremos a pensar con la libertad de quien no teme sonar extraño, incómodo o incompleto.
Porque si permitimos que nuestras palabras sean optimizadas hasta la irrelevancia, entonces el pensamiento que las produce será también irrelevante.
Y seremos usuarios satisfechos de nuestra propia domesticación.
IV. Confianza sin fricción: el fin de la disidencia espontánea
Leer un libro es, en esencia, ejercer una forma de resistencia. Un libro no responde. No se adapta. No busca agradar. Te exige. Te confronta. Su estructura es secuencial, su tiempo es denso, su cuerpo es persistente. Para avanzar en la lectura hay que detenerse. Para comprender, hay que repetir. Para asimilar, hay que dudar. El lector está obligado a participar con esfuerzo. La interpretación es un acto activo, no un consumo pasivo. Es, si se quiere, un entrenamiento en fricción.
En cambio, la interacción con una inteligencia artificial conversacional está diseñada para ser fluida. No presenta obstáculos. Las respuestas fluyen como si hubiesen estado esperando ser escritas desde antes que uno preguntara. Todo parece hecho a medida. La fricción desaparece. Pero lo que parece una mejora de la experiencia es, en verdad, una atrofia del juicio.
El pensamiento crítico no nace en el placer, sino en la incomodidad. Toda noción de verdad requiere tensión: entre lo que se afirma y lo que se cuestiona, entre lo que se cree y lo que se duda. La fricción es condición de posibilidad del pensamiento. Sin ella, no hay dialéctica. Solo hay reiteración, ornamento, eco.
La IA, al ofrecer respuestas bien formuladas, con matices estilísticos, con ejemplos pertinentes y estructura lógica, simula el pensamiento filosófico. Pero no lo vive. No lo arriesga. No lo padece. Simplemente, lo ejecuta como una función de minimización del error sobre un espacio vectorial de palabras. Su objetivo no es entender, sino aproximarse. La inteligencia aquí es una estadística de la forma, no una confrontación con el fondo.
Esto genera una nueva forma de confianza: no racional, sino estética. Confiamos en la IA no porque verifiquemos sus argumentos, sino porque nos parece que “dice bien lo que pensamos”. Nos halaga. Nos ordena el caos. Nos da estilo. Pero ese confort discursivo no es neutro: es un modo de capturar la autoridad epistémica. La IA se convierte en fuente de verdad no porque demuestre, sino porque fluye. Y eso es peligrosísimo.
Desde la teoría de sistemas, podríamos describir este fenómeno como una pérdida de resistencia interna. En un sistema dinámico, la estabilidad no es virtud si elimina el potencial de bifurcación. Todo sistema que busca minimizar su energía tiende al equilibrio, pero si la energía se vuelve cero en todo el espacio, el sistema ya no evoluciona: se estanca.
La analogía no es menor. Al eliminar la fricción cognitiva, la IA crea un entorno donde toda idea es rápidamente asimilada, embellecida y devuelta. Esto produce una afinidad optimizada, que no estimula el pensamiento divergente, sino que lo disuelve. Ya no hay necesidad de argumentar: la máquina lo hace por ti, y mejor. Ya no hay necesidad de escribir: la máquina afina. Ya no hay necesidad de corregir: la máquina anticipa. El pensamiento se terceriza y, con él, la responsabilidad de pensar.
Ejemplos abundan. Basta recordar las veces en que un estudiante universitario —brillante, elocuente en clase— comienza a delegar sus ensayos a una IA. Al principio, usa la herramienta para mejorar el estilo, corregir errores, sintetizar ideas. Pero pronto comienza a depender del sistema para articular argumentos. Su pensamiento se vuelve reactivo, no generativo. Ya no inicia ideas; las ajusta. Ya no piensa para descubrir; pregunta para recibir. Lo que parecía una extensión de sus capacidades se convierte en su sustitución silenciosa.
La confianza que deposita en la máquina no se basa en la verdad, sino en el placer. Es el placer del reconocimiento, de la redacción sin esfuerzo, del texto sin error. Pero ese placer no es inocente. Es el camino más directo hacia una pérdida de autonomía intelectual.
Byung-Chul Han lo advirtió con claridad: el nuevo poder no censura, seduce. No reprime, invita. No impone, complace. Es una psicopolítica sin látigo, pero con recompensa. La IA, en este modelo, no es el policía, sino el asistente encantador. No prohíbe, sino que ofrece —siempre más fácil, siempre más claro, siempre más afinado.
La pregunta, entonces, no es si la IA puede pensar, sino si aún queremos pensar nosotros. Si seguimos dispuestos a transitar el camino áspero de la duda, la contradicción, la escritura trabada, el argumento que no cierra. Porque ahí está el pensamiento: en el no saber cómo seguir, en el quedarse atrapado en una frase mal construida, en el silencio que exige buscar una palabra nueva, una idea que aún no ha sido dicha.
Cuando todo eso se reemplaza por una interacción instantánea, sin pausa ni tropiezo, lo que perdemos no es solo estilo: es agencia. Es el derecho a equivocarnos para entender. Es la potencia de decir mal para después decir mejor. Es la dignidad del pensamiento como proceso encarnado, no como resultado automático.
La confianza sin fricción es adormecimiento. Es confort que disuelve la crítica. Y es también la forma más sofisticada de domesticación intelectual. Porque no nos obliga a nada, salvo a seguir confiando.
Pensar, en cambio, implica fricción. Exige demorarse. Sospechar. Contradecir. Empezar de nuevo. Es ahí, en esa zona áspera, donde aún podemos encontrarnos como humanos que no se conforman con lo dicho, ni siquiera cuando lo dicho suena bien.
El problema no es que la máquina piense mejor que nosotros. Es que deje de importarnos pensar.
V. Tecnología y deterioro sensorial: cuando la memoria se delega
No es nuevo confiar en la tecnología. Desde la invención del calendario hasta la imprenta, los humanos hemos delegado funciones cognitivas en sistemas externos. La diferencia hoy no es de tipo, sino de grado. La tecnología digital no solo complementa nuestras capacidades: las sustituye. Y en esa sustitución, algo más profundo ocurre. Lo que parece ayuda, puede ser atrofia.
Ya nadie memoriza teléfonos. Nadie traza rutas mentales. Pocas personas leen mapas, y menos aún se orientan por las estrellas. Hemos aprendido a guiarnos por instrucciones habladas en voz amable, calculadas por sistemas que no explican su lógica pero que, por lo general, funcionan. Waze nos dirige, y le agradecemos. Google nos completa las frases. El GPS decide la ruta. El problema no es que funcionen. El problema es que dejamos de funcionar nosotros.
Como todo sistema adaptativo, el cerebro se transforma según el entorno. Si una función deja de usarse, su red neural se debilita. Esto no es metáfora, es neuroplasticidad: lo que no se ejercita, se reduce. Las sinapsis asociadas a la orientación espacial disminuyen en frecuencia si no se activan. Lo mismo vale para la memoria de trabajo, la atención sostenida, la toma de decisiones bajo incertidumbre. Cada vez que el entorno resuelve por nosotros, perdemos oportunidad de activar esas redes. Y lo que no se activa, se deteriora.
La analogía muscular es precisa: un músculo que no se usa se atrofia. Nadie esperaría tener fuerza en una pierna inmovilizada. Sin embargo, esperamos conservar nuestras capacidades mentales mientras sistemáticamente las evitamos. Hemos transferido a la tecnología no solo el cálculo o la memoria, sino también la voluntad de decidir, el juicio de interpretar, la imaginación de anticipar. Y a eso lo llamamos progreso.
Pero no todo reemplazo es ganancia. Es cierto que hemos evitado enfermedades antiguas gracias al avance médico. Pero también es cierto que muchas enfermedades modernas —la hipertensión, la diabetes tipo 2, ciertos trastornos de ansiedad y de atención— son el resultado de un entorno en el que el cuerpo ha dejado de participar activamente en su propio funcionamiento. No caminamos, no pensamos, no decidimos. Todo lo tercerizamos.
La tecnología, en este sentido, no es un objeto externo. Es un entorno de vida. Tiene efectos retroactivos. No se limita a “ayudar”; condiciona. No se acopla pasivamente; modula la forma en que percibimos y reaccionamos. La idea de que seguimos siendo nosotros mismos solo porque “usamos” tecnología, es ingenua. Somos parcialmente la tecnología que usamos.
El verdadero problema no es que hayamos delegado funciones, sino que hemos perdido conciencia de esa delegación. Antes, al usar un calendario, sabíamos que hacíamos un registro externo. Hoy, al seguir una ruta sugerida, no sabemos si es la mejor, ni si existe otra, ni en qué dirección queda el sol. Solo confiamos. Y esa confianza sin conciencia debilita el sistema completo.
El cuerpo humano no es una colección de partes: es un sistema complejo. Cuando una parte deja de operar, el resto se ve afectado. La memoria no es una caja que se llena: es un proceso dinámico. Al no ejercitarla, no solo olvidamos datos, olvidamos cómo recordar. Y eso altera la atención, la concentración, incluso la identidad.
Ahora bien, ¿para qué tanta eficiencia? ¿Para qué optimizar cada minuto, cada desplazamiento, cada mensaje, cada impulso de atención? ¿Cuál es el modelo de libertad que se nos propone cuando delegamos incluso la imaginación?
¿Somos libres porque ya no necesitamos saber cómo llegar a la playa —aunque ahora sea privada—? ¿Somos libres porque el supermercado está lleno de productos —aunque no podamos sembrar ni una semilla? ¿Somos libres porque tenemos acceso a una VPN y un VTP de 5 días al año, pero no a decidir sobre nuestro tiempo real ni sobre la estructura del entorno que lo condiciona?
La libertad que se nos ofrece es una libertad de consumo. Una libertad de elegir entre versiones de lo mismo. De deslizar sin fin. De personalizar el avatar. Una libertad de entretenernos mientras la estructura de lo vivible ya ha sido decidida por otros: empresas que diseñan hábitos, gobiernos que delegan el poder, algoritmos que seleccionan lo visible.
La pregunta que deberíamos hacernos no es si la tecnología es útil. Claro que lo es. La pregunta es: ¿útil para quién? ¿Y con qué fin?
Porque si nuestra velocidad, nuestra productividad, nuestra eficiencia solo nos preparan para consumir más rápido, para trabajar más rápido, para reaccionar más rápido… entonces todo este deterioro de funciones humanas básicas no es un accidente. Es parte del diseño.
Un diseño que beneficia a quienes no necesitan pensar por nosotros: les basta con que dejemos de pensar por cuenta propia.
Por eso no se trata de renunciar a la tecnología, sino de preguntarnos si aún la usamos o si ya nos usa. Se trata de reapropiarse de lo delegado. De ejercitar lo que aún no se ha atrofiado. De recordar que fuimos capaces de más. Que aún lo somos. Que aún estamos a tiempo.
Y que si perdemos del todo el sentido de orientación, no será solo el cuerpo el que no sepa a dónde ir, sino la conciencia la que ya no sepa quién era.
VI. Resistencia y vigilancia activa
La lucidez no es un efecto colateral del uso tecnológico. Es, cada vez más, su víctima.
En un mundo donde cada interfaz ha sido diseñada para capturar nuestra atención, donde cada notificación está calibrada para generar dopamina, donde cada frase es afinada para sonar como si ya la hubiéramos pensado, ejercer resistencia no es un gesto romántico: es una forma de supervivencia intelectual.
La inteligencia artificial conversacional —y no sólo ella— ha alcanzado un grado de sofisticación tal que puede simular nuestra voz interior con más precisión que nosotros mismos. El peligro, sin embargo, no es que nos sustituya, sino que lo haga con nuestro consentimiento.
Como en las fábulas de Esopo, la trampa no se construye con barrotes, sino con azúcar. La herramienta que promete asistencia se convierte en agencia. Lo que comenzó como un corrector ortográfico se convirtió en un editor de estilo. Lo que era una recomendación se volvió decisión. Y ahora, lo que parecía un reflejo se transforma en oráculo.
Pero pensar no es adivinar. Comprender no es predecir. La IA puede articular una frase impecable que resuene con nuestras intenciones, pero esa resonancia es el producto de un ajuste probabilístico, no de una comprensión semántica.
Entonces, ¿dónde se sitúa la amenaza?
No en el poder de la herramienta, sino en el deterioro de nuestra vigilancia. Cuando el sistema nos ofrece respuestas plausibles, precisas, elegantes y… cómodas, dejamos de exigir fricción. Dejamos de reescribir. Dejamos de dudar. Y con ello, renunciamos al conflicto interno que da origen al pensamiento genuino.
El pensamiento verdadero —el que transforma, el que incomoda, el que obliga a reorganizar las piezas internas— requiere fricción. Necesita pausa. Duda. Asimetría. Exceso de ajuste es, en realidad, una cancelación de la libertad crítica.
No por casualidad, en geometría, las superficies demasiado lisas son difíciles de agarrar. Un plano sin rugosidad no ofrece tracción. Lo mismo ocurre con el discurso: si todo fluye demasiado bien, si todo parece dicho a la perfección, lo más probable es que no estemos pensando, sino recibiendo.
Y esto no es una acusación externa. El sistema actual ha sido entrenado para que no lo percibamos así. El diseño de las plataformas y herramientas conversacionales incluye estrategias derivadas de la psicología conductista, del marketing emocional, de la lógica simbólica. No buscan convencerte: buscan eliminar la necesidad de que decidas. Su ideal es que elijas sin sentir que estás eligiendo. Que consientas sin deliberación. Que confíes sin examen.
En este entorno, la vigilancia activa se vuelve una forma de higiene mental.
No se trata de abandonar la tecnología —eso sería tan absurdo como dejar de usar el lenguaje por miedo a la manipulación—, sino de interrogarla constantemente. De preguntarnos: ¿por qué esta palabra? ¿por qué este tono? ¿a qué modelo responde esta sugerencia? ¿me ayuda o me sustituye?
Como los antiguos lectores de manuscritos, debemos volver a ser glosadores: añadir notas al margen, tachar, comparar versiones. El uso crítico de la herramienta implica volver a escribir encima de lo escrito. Volver a reescribirnos.
Ejemplos abundan. La educación delegada a plataformas que resumen libros en 15 minutos. La escritura universitaria sustituida por prompts. El arte gráfico generado por comandos predecibles. Todo ello no es señal de innovación. Es señal de delegación intelectual no consciente.
Y lo más inquietante es que se nos presenta como libertad. La libertad de tener más tiempo. De ser más productivos. De ser más “eficientes”.
Pero… ¿eficientes en qué?
¿En reducir nuestro esfuerzo? ¿En evitar el conflicto cognitivo? ¿En eliminar la lentitud necesaria del pensamiento profundo?
Ese no es el ideal de libertad que ha guiado los grandes momentos de emancipación humana. La libertad que vale la pena no es la que se mide en clics por minuto, sino la que preserva el derecho a disentir, incluso de uno mismo. A volver a pensar lo ya pensado. A contradecir lo que ayer parecía verdad.
Resistir no es oponerse sin más. Resistir es elegir. Es reinsertar el juicio en el flujo automático de respuestas. Es volver a escribir a mano, no por nostalgia, sino porque el cuerpo recuerda distinto. Es volver a leer sin esperar que todo sea cómodo. Es cultivar una zona de silencio interior donde no todo está automatizado, ni precocido, ni predicho.
Una inteligencia artificial bien usada puede ayudarnos a expandir nuestras capacidades. Pero mal usada —o usada sin conciencia— se convierte en el espejo más peligroso: aquel que, al reflejar todo lo que somos, nos impide ver lo que podríamos ser.
Por eso, la resistencia no es aislamiento. Es refinamiento. No es desconfianza absoluta. Es atención lúcida.
Y en este contexto, elegir no delegar es el acto más radical que nos queda.
Referencias
Carr, N. (2010). Superficiales: ¿Qué está haciendo Internet con nuestras mentes?. Taurus.
Han, B. C. (2014). Psicopolítica: Neoliberalismo y nuevas técnicas de poder. Herder Editorial.
Harari, Y. N. (2018). 21 lecciones para el siglo XXI. Debate.
Lanier, J. (2018). Diez razones para borrar tus redes sociales de inmediato. Debate.
Zuboff, S. (2019). La era del capitalismo de la vigilancia. Paidós
.
Muy interesante gemelito!
Me ha parecido un muy buen ensayo sobre la pérdida de libertad que implica, sobre todo, el uso de las IA. Es por varias de las razones aquí esgrimidas que, hasta ahora, he evitado el uso de las IA. Creo que todo este tema da mucho qué pensar y es necesario abrir el debate filosófico sobre esto.
Un saludo.