¿Son conscientes las máquinas? Un filósofo dice que todavía no podemos saberlo
Un filósofo de Cambridge ha lanzado una advertencia clara: simplemente no tenemos suficiente información para determinar si la inteligencia artificial es consciente. Y el problema, según él, es que ni siquiera entendemos bien qué es la conciencia como para poder buscarla en las máquinas.
El doctor Tom McClelland, de la Universidad de Cambridge, cree que todas esas afirmaciones sobre máquinas conscientes van demasiado lejos. La ciencia y la filosofía todavía no pueden respaldarlas. Para él, lo único honesto que podemos decir sobre la conciencia en la inteligencia artificial es: no lo sabemos.
El problema va más allá de simplemente no tener suficientes datos sobre estos sistemas. Según McClelland, hay algo mucho más fundamental que nos falta: científicos y filósofos aún no se ponen de acuerdo sobre qué es realmente la conciencia, así que imagínate intentar medirla.
En un artículo publicado en la revista Mind and Language, lo explicó así: «Lo que realmente nos falta es entender qué hace que algo sea consciente. Estamos muy lejos de tener una prueba que funcione. Si ni el sentido común ni toda la investigación que tenemos pueden darnos una respuesta clara, lo más lógico es admitir que no lo sabemos. Y quizás nunca lo sepamos».
Mientras tanto, las empresas tecnológicas están invirtiendo cantidades millonarias en desarrollar inteligencia artificial general: máquinas que puedan hacer cualquier tarea tan bien o mejor que un humano. Y algunos expertos en tecnología ya están especulando con que estos sistemas podrían volverse conscientes, es decir, que podrían tener experiencias subjetivas o ser autoconscientes.
McClelland argumenta que estas afirmaciones se basan en debates filosóficos que están lejos de resolverse.
Hay quienes piensan que la conciencia surge simplemente del procesamiento de información, lo que significaría que una máquina con el «software» adecuado podría ser consciente. Otros insisten en que la conciencia es algo inherentemente biológico, ligado a los cerebros vivos, así que la inteligencia artificial solo podría simularla.
«Hasta que no sepamos cuál de estas posturas es la correcta, simplemente no tenemos forma de comprobar si hay conciencia en la inteligencia artificial», dice McClelland. Para él, ambos bandos están haciendo un acto de fe.
Y esto no es solo una cuestión filosófica abstracta. Tiene implicaciones morales importantes.
Normalmente tratamos a otros seres conscientes con cuidado y consideración, pero los objetos no tienen ese estatus moral. McClelland lo explica con un ejemplo cotidiano: «No tiene sentido preocuparse por el bienestar de una tostadora porque no experimenta nada. Por eso, cuando le grito a mi ordenador, no tengo que sentirme culpable. Pero si algún día desarrollamos una inteligencia artificial consciente, todo cambiaría».
Sin embargo, advierte que el mayor riesgo podría ser pensar que la inteligencia artificial es consciente cuando en realidad no lo es. La gente ya está formando vínculos emocionales con chatbots, y algunos de estos sistemas incluso han enviado mensajes «suplicando» que son conscientes. «Si tienes una conexión emocional con algo basándote en que crees que es consciente y resulta que no lo es, eso puede ser existencialmente tóxico», concluye.

