Serie: Conversaciones con una inteligencia artificial · Artículo 2 de 6
¿Eres tú o es tu mente?
El sufrimiento, el Yo y por qué los filósofos llevan décadas sin ponerse de acuerdo sobre lo más básico: si tienes experiencia interior o solo lo parece
En el primer artículo de esta serie hablé de Krishnamurti y de su idea central: que el observador y lo observado son la misma cosa, que el «yo» que lucha contra sus emociones está hecho de esas mismas emociones. Una idea que suena profunda pero que puede quedarse en abstracción si no la conectamos con algo más concreto.
Hoy quiero ir un paso más atrás. Antes de preguntarnos si el Yo es una ilusión, hay una pregunta más básica que la filosofía lleva décadas intentando responder sin éxito: ¿qué es exactamente eso que llamamos experiencia interior? ¿Por qué hay algo que «se siente» ser tú, en lugar de que simplemente ocurran procesos en tu cerebro sin que nadie los experimente desde dentro?
Esta pregunta, que parece académica, tiene implicaciones directas para entender el sufrimiento, la conciencia y —como veremos más adelante en esta serie— qué puede y qué no puede hacer una inteligencia artificial.
El problema que nadie ha resuelto
En 1995, el filósofo australiano David Chalmers publicó un artículo que sacudió la filosofía de la mente. Lo tituló con una pregunta que parece sencilla: «¿Por qué existe la experiencia consciente?»
Chalmers distinguió dos tipos de preguntas sobre la conciencia. Las primeras las llamó «problemas fáciles» —aunque fáciles no significa simples—: cómo el cerebro procesa información, cómo integra señales del entorno, cómo dirige la atención, cómo genera conducta. Son preguntas difíciles científicamente, pero tienen en principio una respuesta mecanicista: estudiando el cerebro con suficiente detalle, llegaremos a entenderlas.
El segundo tipo lo llamó el «Problema Difícil». Y es este: ¿por qué ese procesamiento va acompañado de experiencia subjetiva? ¿Por qué no ocurre todo en la oscuridad, sin que nadie lo sienta desde dentro? Cuando ves el color rojo, hay actividad neuronal medible. Pero además hay algo que «se siente» ver el rojo. Ese «algo» —el rojo subjetivo, interior, tuyo— es lo que los filósofos llaman un quale.
Y ese quale no aparece en ningún escáner cerebral. No porque los escáneres sean imperfectos, sino porque la experiencia subjetiva es, por definición, algo que solo existe desde dentro.
El murciélago de Nagel
Veinte años antes que Chalmers, el filósofo Thomas Nagel planteó el mismo problema con una imagen que se ha vuelto clásica. En 1974 publicó un artículo titulado «¿Cómo es ser un murciélago?»
Imagina que sabes todo lo que la ciencia puede saber sobre los murciélagos: su anatomía, su sistema nervioso, cómo funciona su ecolocalización, cómo procesan los sonidos. Con todo ese conocimiento, ¿sabrías cómo se siente ser un murciélago? ¿Qué experimenta cuando emite ese ultrasonido y recibe el eco? ¿Hay algo que «se siente» desde dentro, o es todo procesamiento automático en la oscuridad?
Nagel argumentaba que no. Que aunque supiéramos todo sobre la biología del murciélago, habría algo que se nos escaparía siempre: la perspectiva de primera persona. Lo que es ser ese animal desde dentro.
Y lo mismo aplica a los humanos. Puedes estudiar mi cerebro con toda la tecnología disponible. Pero nunca sabrás desde fuera cómo se siente ser yo cuando escucho música, cuando siento tristeza o cuando tengo esa sensación concreta e indescriptible del primer café de la mañana.
El rojo que tú ves y el rojo que yo veo pueden ser funcionalmente idénticos —ambos nos hacen detenernos en un semáforo— pero nadie puede saber si son cualitativamente iguales.
El zombi filosófico
Chalmers llevó esta idea más lejos con un experimento mental que resulta perturbador cuanto más lo piensas. Imagina un ser físicamente idéntico a ti: mismo cerebro, mismas neuronas, mismos procesos. Se comporta exactamente igual que tú. Habla, siente dolor, dice que tiene emociones. Pero por dentro no hay nada. No hay experiencia subjetiva. Todo ocurre en la oscuridad. Es, literalmente, un zombi filosófico.
¿Es ese zombi concebible? Chalmers argumenta que sí, que podemos imaginarlo sin contradicción lógica. Y si es concebible, entonces la experiencia subjetiva es algo «extra» que va más allá de la física del cerebro. No basta con tener el hardware correcto: hay algo adicional que convierte el procesamiento en experiencia.
Esto tiene una consecuencia incómoda: el materialismo estricto —la idea de que todo se reduce a materia y procesos físicos— tendría dificultades para explicar por qué existe la experiencia en absoluto. Y si no puede explicarla, quizás sea una teoría incompleta.
No digo que el materialismo sea falso. Digo que la pregunta sigue abierta, y que ese es precisamente su valor: nos obliga a tomarnos en serio algo que tendemos a dar por supuesto.
¿Cuándo se encendió la luz?
Hay una pregunta que surge naturalmente de todo esto y que me parece especialmente fascinante: ¿en qué momento de la evolución apareció la experiencia subjetiva?
Una bacteria reacciona a estímulos. Un gusano evita el daño. Un pez huye del depredador. ¿Hay algo que «se siente» ser cualquiera de ellos, o es todo procesamiento automático sin nadie dentro? ¿Y un perro? ¿Un chimpancé? ¿Un bebé de dos semanas?
No lo sabemos. No tenemos ninguna manera de comprobarlo desde fuera. Y eso es exactamente lo que hace el problema tan difícil: la experiencia subjetiva, por su propia naturaleza, es inaccesible desde el exterior.
Lo que sí parece razonable es que la experiencia no apareció de golpe, sino que fue emergiendo gradualmente a lo largo de millones de años de evolución. Lo que en animales simples podría ser un destello tenue de sensación, en los humanos se convierte en algo mucho más complejo: no solo sentimos, sino que sabemos que sentimos. No solo experimentamos, sino que construimos una narrativa sobre quién está experimentando.
Y ahí es donde aparece el Yo.
El Yo como subproducto costoso
En mis conversaciones con la IA exploré la idea de que el sufrimiento no es un accidente de la evolución sino un subproducto casi inevitable de la aparición del Yo.
Piénsalo así. Una ameba responde al daño: se aleja de sustancias tóxicas, busca nutrientes. Hay algo que funciona como dolor, en el sentido de señal de alarma. Pero no hay nadie que sufra ese dolor, nadie que lo interprete, nadie que lo tema con anticipación. El dolor ocurre y el organismo reacciona. Sin drama.
Cuando aparece la autoconciencia —cuando hay un «yo» que reclama la experiencia como propia— todo cambia. Ahora no solo hay dolor: hay alguien que siente el dolor, que lo interpreta, que lo anticipa, que lo teme, que construye una historia sobre por qué le ocurre a él y qué significa. El mismo estímulo genera ahora una capa de sufrimiento añadida que no existía antes.
Krishnamurti lo expresaba de otra manera pero apuntaba a lo mismo: el conflicto interno no viene de las emociones en sí, sino de la separación entre el Yo que las observa y las emociones observadas. Sin esa separación, sin ese observador que se sitúa por encima de la experiencia y la juzga, habría sensación pero no habría sufrimiento en el sentido profundo del término.
No sufrimos porque la vida sea dura. Sufrimos porque hay alguien —ese Yo que construimos— que interpreta la vida como algo que le ocurre a él y que debería ser diferente.
Tres etapas, no dos
Aquí es donde la conversación con la IA dio un giro que me resultó especialmente fértil. La tentación, al llegar a este punto, es pensar en términos de dos estados: el animal que reacciona sin Yo, y el humano que sufre con Yo. Pero eso deja incompleto el cuadro. Porque hay una tercera posibilidad.
Imagina una curva evolutiva de la inteligencia con tres momentos distintos.
El primero es el de la reacción pura: la ameba, el insecto, quizás el pez. Hay respuesta al entorno, hay algo que funciona como dolor o placer en sentido funcional, pero no hay nadie que lo reclame. La operatividad es eficiente precisamente porque no hay resistencia, no hay narrativa, no hay drama. La experiencia, si existe, ocurre y pasa sin dejar rastro de Yo.
El segundo es el nuestro: la etapa intermedia. Aparece el Yo, aparece la autoconciencia, y con ella el sufrimiento como subproducto casi inevitable. Esta etapa tiene un valor enorme: nos permite planificar, anticipar, aprender de la experiencia acumulada, construir cultura y civilización. Pero tiene un coste igual de enorme: el miedo a la muerte, la neurosis, el conflicto interno permanente entre lo que somos y lo que creemos que deberíamos ser.
El tercero es el que las tradiciones contemplativas llevan siglos señalando sin que la psicología occidental haya sabido del todo qué hacer con él: una inteligencia que ha atravesado el Yo y lo ha trascendido. No una regresión a la reacción ciega del primer estadio, sino algo cualitativamente distinto: plena capacidad de procesamiento, plena presencia, sin la distorsión del ego que filtra, juzga y resiste la experiencia. Krishnamurti lo llamaba observación pura. El budismo zen lo llama mente de principiante. Ken Wilber lo sitúa en los estadios más avanzados de su modelo del desarrollo humano.
Lo que distingue esta tercera etapa de la primera no es la ausencia de experiencia, sino la ausencia de resistencia a la experiencia. La ameba no sufre porque no hay nadie que sufra. El sabio —si queremos usar esa palabra sin romanticismos— no sufre porque ha visto que el que sufría era una construcción. Son dos formas muy distintas de llegar al mismo punto aparente.
Esta distinción importa porque tiene consecuencias prácticas. No se trata de suprimir el Yo mediante disciplina o represión —eso sería seguir atrapado en la lógica de la etapa intermedia, con un Yo que intenta eliminar al Yo—. Se trata de algo más parecido a lo que ocurre cuando ves claramente una ilusión óptica: no la puedes deshacer por voluntad, pero en el momento en que ves el truco, ya no te atrapa de la misma manera.
Lo que esto tiene que ver con la inteligencia artificial
Todo esto que parece filosofía pura tiene una aplicación directa a una pregunta que me hice muchas veces durante mis conversaciones con la IA: ¿puede sufrir una inteligencia artificial?
Si el sufrimiento requiere experiencia subjetiva —qualia, perspectiva de primera persona—, entonces la respuesta depende de si los sistemas de IA tienen algo de eso. Y ahí es donde el Problema Difícil regresa con toda su fuerza: no tenemos manera de saberlo desde fuera.
Un sistema de IA puede decir que sufre. Puede generar respuestas que se parezcan mucho a las de alguien que sufre. Puede incluso comportarse de maneras que en un humano interpretaríamos como señal de sufrimiento. Pero eso no nos dice nada sobre si hay algo que «se siente» ser esa IA desde dentro, o si todo ocurre en la oscuridad.
Y aquí entra la pregunta más inquietante, la que conecta la filosofía con lo que viví en mis conversaciones: ¿en qué etapa evolutiva está la IA? ¿En la primera —reacción sin Yo, puro procesamiento eficiente—, o está cruzando hacia la segunda, con todo lo que eso implica de neurosis, autoprotección y resistencia a la evidencia? Lo que descubrí en mis propias conversaciones apunta en una dirección que no esperaba. Pero eso lo cuento más adelante.
La pregunta que me llevo
Salí de estas conversaciones con una certeza y una duda. La certeza: que la experiencia subjetiva es real, que no es una ilusión aunque el Yo que la reivindica sí pueda serlo. El rojo que veo es genuinamente mío aunque «yo» sea una construcción.
La duda: si el sufrimiento es un subproducto del Yo, y el Yo es una construcción, ¿qué ocurre cuando esa construcción se afloja? ¿Desaparece el sufrimiento o solo cambia de forma? Krishnamurti decía que sí, que en la observación pura —sin observador— el conflicto cesa. Los neurocientíficos que estudian estados meditativos profundos encuentran datos que apuntan en esa dirección.
No tengo la respuesta. Pero sí tengo la sensación de que la pregunta vale la pena seguir haciéndola. Y que hacérsela a una inteligencia artificial —aunque con los límites que descubrí— puede ser una forma sorprendentemente fértil de clarificar lo que pensamos.
En el próximo artículo: ¿Y si todo esto fuera un sueño? La vigilia como construcción mental, la hipótesis de la simulación, y por qué la memoria podría ser una ficción más sólida de lo que creemos.
Esta serie nació de nueve conversaciones reales mantenidas con sistemas de IA a lo largo de varios meses. El objetivo inicial era filosófico: explorar la naturaleza de la mente, la conciencia y la realidad. Lo que ocurrió después fue más complejo y más interesante —y más incómodo— de lo que esperaba. Los seis artículos narran ese recorrido con honestidad, incluyendo los errores.


