¿Conciencia computacional?
¿Por qué es tan importante lograr emular la conciencia en un sistema informático? Es decir, ¿Por qué es crucial alcanzar AGI (Inteligencia Artificial General)?
A mediados del siglo XX comenzó a estar de moda una corriente filosófica que, a través de la metáfora computador-cerebro, venía a decir que los procesos mentales, entre ellos, la conciencia, son meros procesos computacionales. A esto se le conoció como «teoría computacional de la mente» o llanamente computacionalismo, una teoría funcionalista. Sin embargo, ésta teoría fracasó porque no logró capturar la complejidad del cerebro humano. Entre sus objeciones más famosas se encuentra el experimento mental Habitación china de John Searle, que dice que un computador nunca podrá lograr conciencia porque carece de semántica y un soporte biológico, así, nada más puede manipular símbolos.
Pero, los seguidores de esta teoría aún siguen ahí.
Quizá cabe explicar la conciencia antes. Cuando cada día nos despertamos, ya sea con energía o cansados, o cuando vemos a un amigo después de mucho tiempo, o cuando recibimos una mala noticia, o cuando nos enamoramos, estamos «viviendo» la conciencia. Como diría el filósofo de la mente, Gregory Miller, «la conciencia es experiencia».
Por eso el experimento mental descrito por Robert Nozick de seres humanos que, luego de implantarles un chip bloqueaba cualquier información de la conciencia, los trasformaba en «zombies». Fue popular, pues vino a describir cómo sería un mundo con seres carentes de emociones y de todo tipo de experiencia. Estos podían comer, viajar, conversar, pero eran incapaces de sentir nada, porque no son conscientes. A nadie le gustaría vivir en un mundo así, espero.
De hecho, la conciencia se enlaza con valores éticos. Cuando creemos que un ser vivo no tiene conciencia, nuestro trato suele ser distinto si estamos seguro de que la tiene. ¿Por qué nos parece que matar una hormiga no es lo mismo que matar a un perro? Porque sentimos que el perro tiene conciencia, puede alegrarse y sufrir como nosotros, es decir, tiene experiencia.
Esto se conecta con el antropomorfismo: la tendencia de atribuir características humanas a seres no humanos. Todo en IA está impregnado con antropomorfismo, al igual que el computacionalismo y la idea que el cerebro es un computador. Las metáforas nos permiten reducir la complejidad de las abstracciones para encontrar algo similar a nosotros. Caemos en el antropomorfismo porque no tenemos el conocimiento suficiente para establecer límites claros. Un reciente artículo trata este tema en detalle: «Anthropomorphising machines and computerising minds» .
En fin, quizá todos los avances de la IA actual (modelos generativos) nunca alcancen un tipo de conciencia humana, pues es una mala metáfora; quizá y sólo quizá, alcance otra cosa, algo igualmente sorprendente, pero que tenga otro nombre: una suerte de «conciencia computacional».