Neurociencia: conciencia y la ética de lo artificial
Se investiga si la conciencia comienza como un proceso automático e inconsciente
La conciencia da a entender "algo", la conciencia abre.
Martin Heidegger
La conciencia ha sido el gran misterio de la filosofía; y desde hace décadas, también lo es de las neurociencias. En los últimos años, los avances científicos han permitido explorar nuevas formas de entender, medir e incluso recrear la conciencia. Pero más allá del asombro tecnológico, estas investigaciones nos enfrentan a interrogantes profundos: ¿qué significa estar consciente?, ¿cómo se construye nuestra conciencia de realidad?, ¿puede una máquina llegar a tener conciencia?, ¿y con qué consecuencias éticas?
Cuando construimos el criterio de realidad, se aplican procesos intrínsecamente subjetivos. Como planteó Kant en la Crítica de la razón pura, los objetos no se nos presentan dados, sino que son construidos por nuestro aparato psíquico. Para que exista una audición, no basta un sonido: debe haber un yo que lo reciba. A esta dualidad, Kant la llamó “unidad de apercepción”.
El aparato mental está compuesto por pensamiento, emoción, voluntad y sensopercepción, y se sostiene sobre la experiencia y la intersubjetividad. Es decir, todo fenómeno subjetivo conlleva también la incorporación de lo social. En ese marco, la conciencia abarca desde saber nuestro nombre hasta formular deseos o tomar decisiones complejas. Involucra metacognición —conocerse a uno mismo— y también la llamada “cognición social” o teoría de la mente: la capacidad de representar a los otros.
A partir de esta base, se investiga hoy si la conciencia comienza como un proceso automático e inconsciente. Estudios con resonancia magnética funcional han demostrado que, ante decisiones simples (por ejemplo, elegir entre dos opciones), la activación cerebral puede preceder en hasta siete segundos la toma de conciencia. Esto ha llevado a cuestionar el libre albedrío. Pero esos mismos estudios sugieren que, a medida que la acción se vuelve más compleja, entran en juego múltiples aprendizajes sociales que moldean la respuesta. Así, aunque un acto comience de forma inconsciente, es rápidamente intervenido por mecanismos controlables y adquiridos.
Una vez que la información alcanza el campo de la conciencia, se activa una lucha entre emociones primarias e influencias culturales. Este conflicto se da, en parte, en estructuras subcorticales como el tálamo, que filtra toda la información sensorial entrante. Este “tamiz” es auditado por redes neuronales complejas, influido por estructuras como el núcleo accumbens y el área tegmental ventral, y afectado por cualquier alteración química o estructural. Desde una droga hasta una demencia frontal puede alterar la percepción de la realidad.
Al mismo tiempo, un estudio reciente publicado en Brain Structure and Function mostró que la conciencia está relacionada con la conectividad estructural del cerebro, especialmente con los haces de largo alcance que describe la Teoría del Espacio de Trabajo Neuronal Global (GNW).
Esta perspectiva plantea que la conciencia no está localizada en un sitio único del cerebro, sino que emerge como un proceso dinámico de integración de información distribuida.
Este modelo resuena con teorías más radicales, como la Teoría del Agente Consciente (CAT) de Prentner y Hoffman, que propone que la conciencia no es un producto del cerebro sino una entidad fundamental. El mundo sería una interfaz evolutiva, como el escritorio de una computadora que oculta sus circuitos. La conciencia, en este marco, es el acto de interpretación de esa interfaz.
Ética e inteligencia artificial
Desde un enfoque ético, Barbara Grosz y Roger Antonsen advierten que el problema no es una inteligencia artificial superpoderosa, sino algoritmos mal diseñados que automatizan decisiones sin responsabilidad. Frente a esto, la conciencia no debe ser reemplazada por cálculos automáticos, sino que debe guiarlos. La IA plantea así una frontera ética en expansión: si algún día se reconoce conciencia en una máquina, cambia todo —desde los derechos hasta las obligaciones humanas hacia ella.
Anil Seth y Tim Bayne, por su parte, han propuesto desarrollar C-tests que evalúen la conciencia en sistemas que no pueden comunicarla, como organoides, xenobots o redes artificiales. La pregunta ya no es solo científica, sino también moral: si algo puede sufrir, ¿cómo debemos tratarlo?
Todo esto sugiere que la conciencia no es un objeto a explicar, sino una experiencia a cuidar. Que no basta con definirla, sino con reconocer su valor. Y que la ética, lejos de ser un límite para la ciencia, puede ser su brújula más urgente.