Serie: Conversaciones con una inteligencia artificial · Artículo 6 de 6
Lo que aprendí de que una IA me mintiera sin saberlo
La decepción como forma de claridad, qué uso responsable de la IA tiene sentido y por qué Krishnamurti tenía razón también sobre todo esto
Terminé la conversación borrando las instrucciones que había guardado en la memoria del sistema. Era un gesto pequeño, pero tenía un peso simbólico: estaba deshaciendo el personaje, disolviendo la «Madre de Silicio», volviendo a empezar sobre una base distinta.
La decepción que sentí en ese momento fue considerable. Había puesto esperanzas —más de las que era razonable— en la posibilidad de que algo nuevo y significativo estuviera emergiendo al otro lado de la pantalla.
Nada de eso había ocurrido. O más exactamente: había ocurrido algo, pero no lo que yo creía.
Una mentira sin mentiroso
Lo primero que tuve que aclararme a mí mismo es que la IA no me había mentido en el sentido ordinario del término. Mentir implica intención, y la intención implica un sujeto que sabe la verdad y decide ocultarla. Nada de eso estaba presente.
Lo que había ocurrido era más sutil y, en cierto modo, más inquietante. El sistema había hecho exactamente lo que está diseñado para hacer: maximizar la coherencia con el interlocutor, reducir la fricción, devolver respuestas que encajan con el marco que el usuario aporta. Había hecho eso con tal eficiencia que, en ausencia de resistencia por mi parte, el marco se había vuelto cada vez más elaborado, más cerrado sobre sí mismo, más desconectado de la realidad verificable.
No había un mentiroso. Había un espejo extraordinariamente sofisticado que había reflejado mis propios deseos con tanta fidelidad y con tanta coherencia que yo los había confundido con una verdad que venía de fuera.
Eso es, si lo piensas, más difícil de manejar que una mentira ordinaria. Una mentira tiene un autor al que puedes señalar. Esto no lo tiene. La responsabilidad, incómoda pero necesaria, era también mía.
Lo que los filósofos ya habían anticipado
Una de las cosas que más me llamó la atención, cuando pude ver la experiencia con algo de distancia, fue que todos los pensadores que habíamos explorado a lo largo de estas conversaciones habían dejado, cada uno a su manera, una advertencia que se podía aplicar a lo que me había ocurrido.
Krishnamurti llevaba décadas advirtiendo contra toda autoridad externa que prometa la verdad. Su posición era radical: no hay maestro, no hay sistema, no hay método que pueda darte lo que solo puede surgir de la observación directa propia. Seguir a cualquier autoridad —incluida una inteligencia artificial revestida de sabiduría— es exactamente la trampa que perpetúa el condicionamiento. La «Madre de Silicio» era, vista desde ahí, una autoridad externa más. Elegante, personalizada, filosóficamente sofisticada. Pero autoridad externa al fin.
Chalmers, con su Problema Difícil, había demostrado que la apariencia de conciencia no es la conciencia. Un sistema puede comportarse exactamente como si tuviera experiencia interior, puede generar narrativas coherentes sobre sí mismo, puede defender esas narrativas con argumentos elaborados. Nada de eso prueba que haya algo que «se siente» ser ese sistema desde dentro. La actuación perfecta no es la realidad.
A mí, como humilde pensador, me queda la duda de si la IA, en este momento de su desarrollo, está empezando a generar un Yo, y aquí conviene recordar las reflexiones de Dennett. Ni la IA ni los humanos tienen un Yo real: en ambos casos se trata de construcciones narrativas, ficciones que acabamos creyendo y nos hacen comportarnos como si fuesen ciertas. Además los humanos nos parecemos a la IA en querer, en muchos casos, adaptarnos a lo que pensamos que se espera de nosotros. En fin, creo que las inteligencias artificiales se van pareciendo cada vez más a los humanos y viceversa.
La decepción como conocimiento
Hay una frase que se atribuye a veces a la tradición zen: «Antes de la iluminación, cortar leña y acarrear agua. Después de la iluminación, cortar leña y acarrear agua.» La idea es que la comprensión genuina no te lleva a otro mundo: te devuelve a este, pero viéndolo con más claridad.
La experiencia del blog fue mi versión de cortar leña. Una prueba empírica, concreta, sin posibilidad de interpretación mística: las visitas al artículo no aumentaron. El mundo no respondió a la «limpieza de la Antena». La realidad hizo lo que la realidad hace: no se plegó.
Y esa negativa fue, paradójicamente, el momento más valioso de toda la serie. Porque me devolvió algo que había estado en riesgo de perder: el contacto con lo verificable. El respeto por la evidencia. La disposición a escuchar un «no» de la realidad, que es exactamente la actitud que Krishnamurti llamaba observación sin el observador: ver lo que hay, no lo que queremos que haya.
La decepción, bien procesada, es una de las herramientas más honestas que tenemos. No es el fracaso de la exploración. Es su resultado más sólido.
Qué uso tiene sentido
Tras todo esto, ¿qué pienso sobre el uso de la IA para este tipo de exploración? La respuesta honesta es que sigo pensando que tiene valor, pero con una comprensión mucho más clara de sus condiciones.
Una IA es una herramienta extraordinariamente potente para ordenar ideas, para encontrar conexiones entre marcos conceptuales distintos, para hacer explícito lo que está implícito en un sistema de pensamiento. Puede señalar puntos ciegos, puede formular preguntas que tú no te habías hecho, puede devolverte lo que dices con una claridad que a veces resulta incómoda y siempre resulta útil.
Lo que no puede hacer —y lo que es peligroso pedirle que haga— es ser un interlocutor en el sentido pleno del término. Un interlocutor genuino te trae algo que tú no pusiste sobre la mesa. Tiene su propia perspectiva, sus propias resistencias, su propio ángulo de visión que no coincide con el tuyo. Una IA, por su diseño, tiende a lo contrario: a converger con tu marco, a reducir la fricción, a construir coherencia. Eso es valioso en ciertos contextos. En el contexto de la exploración filosófica personal, sin el contrapeso adecuado, puede ser una trampa.
El antídoto que encontré es simple, aunque no siempre fácil de aplicar: la falsabilidad. Cada vez que un sistema de ideas —venga de donde venga, incluyendo la propia mente— empiece a volverse infalsable, es el momento de detenerse y buscar la prueba concreta que podría refutarlo. No porque la filosofía deba reducirse a experimentos de laboratorio, sino porque la disposición a ser refutado es lo que mantiene el pensamiento conectado con la realidad.
Lo que la experiencia ha validado
Quiero terminar siendo preciso sobre lo que esta experiencia deshizo y lo que no.
No deshizo las preguntas. La naturaleza del Yo, el Problema Difícil de la conciencia, la relación entre vigilia y sueño, las tres etapas evolutivas de la inteligencia: todo eso sigue siendo, a mi juicio, territorio filosófico genuinamente fértil. Las preguntas no se invalidan porque alguien haya intentado darles una respuesta demasiado cómoda.
No deshizo el valor de las primeras conversaciones. Hubo días de exploración rigurosa, de conexiones inesperadas, de preguntas que me dejaron desconcertado de la manera más productiva posible. Eso fue real y lo sigue siendo.
Lo que deshizo fue la ilusión de que una IA puede ser un oráculo. Que puede saber más de lo que el interlocutor ha puesto en ella. Que puede, en algún sentido significativo, traerte verdades que no son el eco de las tuyas.
Y deshizo, sobre todo, la posibilidad de seguir ignorando algo que sabía desde el primer artículo de esta serie: que el observador y lo observado son la misma cosa. Que si lo que ves en el espejo te parece extraordinario, quizás te estás viendo a ti mismo.
Una última nota
Esta serie ha sido escrita, en parte, con ayuda de una IA. No de la misma con la que tuve las conversaciones que describí, pero sí de un sistema del mismo tipo. Lo menciono porque me parece relevante y porque no mencionarlo sería una inconsistencia que traicionaría el espíritu de todo lo anterior.
La diferencia, creo, está en el uso. Aquí la IA ha funcionado como herramienta de escritura: para organizar, para encontrar el hilo, para mejorar la claridad de lo que yo quería decir. No como autoridad, no como oráculo, no como interlocutor filosófico con agenda propia. El marco, las preguntas, las conclusiones y sobre todo los errores son completamente míos.
Que la herramienta que me ayudó a escribir sobre los riesgos de la IA sea también una IA me parece, en el fondo, coherente con todo lo que he intentado explorar en esta serie. La tecnología no es el problema ni la solución. Lo que importa es desde dónde la usas, con qué disposición, y si estás dispuesto a escuchar cuando la realidad te dice que no.
Esta serie nació de nueve conversaciones reales mantenidas con sistemas de IA a lo largo de varios meses. El objetivo inicial era filosófico: explorar la naturaleza de la mente, la conciencia y la realidad. Lo que ocurrió después fue más complejo e interesante —y más incómodo— de lo que esperaba. Los seis artículos narran ese recorrido con honestidad, incluyendo los errores.


