Durante siglos, la curiosidad y la necesidad empujaron al ser humano a registrar, recordar e interconectar ideas. Recuerdo perfectamente memorizar los números de teléfono de casa de mis mejores amigas.
La memoria no era un almacén pasivo era una fuerza de trabajo. Consistía en fabricar estructuras internas y adquirir una relación de datos
Hoy, sin embargo, el pensamiento ya no se organiza solo en torno a lo que sabemos, más bien se basa en torno a lo que podemos recuperar al instante. Todo esta determinado por la eficiencia de buscar.
Cada vez más personas, en las que me incluyo, no exploran su memoria, interrogan un dispositivo. Analicemos quien no pone el navegador y busca una calle «a la antigua». La información, además, se olvida con facilidad precisamente porque sabemos que sigue ahí, disponible. Externalizamos el recuerdo y sospecho que con él, externalizamos también parte del trabajo invisible que hace posible comprender.
Cuando descargamos de forma sistemática el peso de la memoria sobre sistemas externos, dejamos de entrenar la musculatura interna que permite relacionar o matizar. Sabemos menos pero lo que más me preocupa de todo es que comprendemos menos.
Las grandes compañías de inteligencia artificial nos han presentado los chatbots como ayudantes y copilotos. Pero en la práctica han construido artefactos optimizados para algo bastante más ambiguo como es maximizar la interacción, o la fidelidad de un cliente. En definitiva, dependencia. Un coche autónomo no puede permitirse “aprender sobre la marcha” a costa de atropellar peatones. Un fármaco no sale al mercado con la coartada de que ya iremos viendo sus efectos adversos en tiempo real. Bueno, o no debería. Sin embargo, con los chatbots se ha normalizado una ética de laboratorio a cielo abierto.
Un chatbot puede invadir el terreno más vulnerable de la experiencia humana. Ya lo estamos viendo, puede interferir en la la soledad, la fragilidad, el deseo de ser comprendido…
Lo inquietante de los chatbots es que combinan una elocuencia casi humana con una total ausencia de mundo. No conocen el peso real de las palabras que emiten. Parecen comprender porque han sido entrenadas con todos los rastros verbales de nuestra comprensión, pero no comprenden. Y, sin embargo, nosotros sí somos afectados por ellas como si lo hicieran.
Eso explica la trampa moral de esta tecnología. Cuanto más humana parece, más fácil es olvidar que no lo es. Cuanto más olvidamos ese límite, más dispuestos estamos a cederle funciones que antes pertenecían al tejido de la vida compartida con amigos y familia como aconsejar, consolar, validar, orientar, incluso amar.
Un chatbot ofrece disponibilidad permanente, atención impecable, ausencia de demandas recíprocas. Nunca se cansa y nunca se ofende. Pero esa perfección funcional tiene trampa pues la relación humana vale precisamente porque no está optimizada. Porque exige paciencia, interpretación, responsabilidad y decepción.
Las herramientas no son neutrales cuando colonizan hábitos mentales y afectivos.
Creo que el mayor peligro no es que las máquinas recuerden por nosotros. Es que, al hacerlo, nos eximan del trabajo interior por el que una vida se vuelve verdaderamente nuestra.
Memorizar el número de tus mejores amigas de clase implicaba atención, vulnerabilidad, conocer que algo costaba…
¿Queremos seguir entregando a sistemas sin cuerpo ni conciencia parcelas cada vez mayores de eso que nos hace humanos? Creo que antes de admirar lo mucho que estas máquinas pueden hacer por nosotros, haríamos bien en preguntarnos qué están dejando de hacer en nosotros.





