El desarrollo de la inteligencia artificial nos plantea una pregunta de gran envergadura práctica y ética: ¿pueden las máquinas adquirir consciencia? Para contestar a esta pregunta primero hay que entender a qué nos referimos cuando hablamos de “consciencia”.
Este término implica darse cuenta de lo que ocurre a nuestro alrededor, en nuestro organismo, o de nuestros actos, lo que nos permite un comportamiento flexible y controlado. El comportamiento consciente se puede caracterizar por dos rasgos:
- El primer rasgo (R1) se refiere a la disponibilidad global de la información. Aunque algunas partes del cerebro están altamente especializadas (áreas visuales, motoras, de memoria), un requisito de la consciencia es que la información esté disponible de forma global. Es decir, que si vemos algo podamos decir de qué color es, qué forma tiene, cómo suena o cómo se coge.
- El segundo rasgo (R2) permite autovigilar este procesamiento. Así se evalúa si la respuesta fue adecuada o errónea, lo que nos permite corregir esta respuesta de manera inmediata o en situaciones futuras. A esto se lo conoce como “metacognición”.
Pongámonos a cocinar una tortilla de patatas. En esta receta es necesario seleccionar los ingredientes, cogerlos y usarlos en el momento oportuno (primer rasgo). Mientras cocinamos, debemos probar la comida en pasos intermedios para evaluar el sabor con el fin de adaptar estas características a las preferencias de ese momento. Si, por ejemplo, queremos reducir la cantidad de sal, echaremos menos cantidad, pero controlando que el resultado final sea satisfactorio (segundo rasgo).
Ambos rasgos se consideran requisitos para la consciencia. Si falta uno de ellos, el procesamiento será inconsciente. Podríamos echar sal sin darnos cuenta, pues es algo que hacemos de forma automática. Este procesamiento es eficaz, no ocupa recursos de atención o de memoria, pero es limitado. No podemos evaluar si hemos echado la cantidad correcta e incluso a veces nos hace dudar sobre si la echamos o no.
Una de las grandes limitaciones del procesamiento inconsciente es que “no somos conscientes de lo que no somos conscientes”. Es decir, que no podemos estimar cómo es nuestro procesamiento inconsciente ni evaluarlo.
¿Cómo evaluar la consciencia en animales o humanos que no hablan?
El primer rasgo (disponibilidad global) se ha observado en seres vivos que carecen de lenguaje. Desde los primeros meses de vida, los bebés humanos son capaces de extraer reglas y responder ante estímulos que no siguen una secuencia previamente establecida. Animales como los cuervos y los primates pueden responder (si se les entrena) con respuestas de tipo sí o no ante estímulos muy difíciles de detectar.
El segundo rasgo (metacognición) se refiere a nuestra capacidad para autoevaluar el procesamiento. Cuando percibimos o respondemos de forma consciente podemos estimar la probabilidad de que nuestra percepción o respuesta sea correcta. Esto se puede evaluar en animales midiendo cuánto se persiste en la elección inicial (se persistirá más cuanta más seguridad) o permitiendo la opción de no responder (en situaciones de menor seguridad, se optará más a menudo por esta opción de no responder).
¿Pueden las máquinas tener estos rasgos?
Algunos investigadores plantean que ambos rasgos se podrían implementar en las máquinas, de forma que actuasen como si fuesen conscientes.
Imaginemos que ahora es un robot el que tiene que cocinar la tortilla. Si pudiese tomar una medida de la tensión arterial del comensal, esta información podría ponerse a disposición de todo el sistema (primer rasgo) para cocinar con menos sal si la tensión está alta. Al mismo tiempo, si la tensión es excesivamente elevada, este sistema podría mandar una alarma al teléfono de la persona para que pueda concertar una cita médica (primer rasgo).
Además de hacer la información accesible, sería interesante que el robot evaluase su propio comportamiento (por ejemplo, si añadir cebolla a la tortilla ha dado lugar a un sabor agradable) y que se actualizase continuamente (segundo rasgo).
Según este posicionamiento, la consciencia podría reducirse a un conjunto de computaciones que podrían implementarse en las máquinas.
Lo que este planteamiento no tiene en cuenta es que en los organismos biológicos, la consciencia emerge no solo de la interacción del cerebro con el ambiente, sino también de la interacción del cerebro con el propio organismo.
Al tener hambre, por ejemplo, se generan una serie de reacciones fisiológicas que el cerebro interpreta como una sensación, emoción o sentimiento. Estas interpretaciones son una parte esencial de la consciencia de los seres vivos, que se han desarrollado a lo largo de millones de años de evolución y permiten la supervivencia.
Cuando nos enfrentamos a un peligro, el corazón late más rápido, lo que nos ayuda a escapar de esa situación, pero además nos genera miedo. Estudios recientes han encontrado que el latido del corazón es más lento cuando se percibe conscientemente que cuando no se percibe de manera consciente. Esto indica que ser consciente implica no solo la monitorización del ambiente, sino también la de las propias señales que manda nuestro organismo para adaptarnos mejor, aprender y adaptar nuestro comportamiento a las demandas cambiantes del entorno.
Estas interacciones entre el cerebro y el organismo son imprescindibles para que podamos generar experiencias subjetivas en primera persona (“yo he visto”). Entender la consciencia en humanos implica entender no solo cómo se responde al entorno, sino cómo se integra la información del sistema nervioso central (cerebro) y periférico (organismo) para crear la experiencia subjetiva de la percepción.
La consciencia en las máquinas está todavía lejos
La evidencia científica actual muestra que para que se produzca consciencia se necesita de un sistema que sea capaz de procesar la información seleccionando parte de ella para que esté disponible de manera global (primer rasgo) y que evalúe, aprenda y rectifique en función de la experiencia (segundo rasgo).
Las computaciones que actualmente realizan las máquinas no cumplen estos rasgos, y además carecen de una mente y un organismo vivo capaz de construir representaciones sensoriales tanto del entorno como del estado interno de su propio organismo (el hardware, en el caso de las máquinas).
Esta carencia de una monitorización interna entre el cerebro y el organismo limita la posibilidad de que las máquinas puedan desarrollar consciencia, tal y como la concebimos en la actualidad. Sin embargo, la ciencia debe mantenerse vigilante ante el rápido progreso de la tecnología, supervisando sus avances y anticipándose a los dilemas éticos que puedan surgir.
*María I. Cobos, Postdoctoral researcher, Universidad de Granada y Ana B. Chica, Catedrática de Universidad, Universidad de Granada
Este artículo fue publicado originalmente en The Conversation. Lea el original.