En la actualidad, el foco no debe estar en si las inteligencias artificiales pueden ser verdaderamente conscientes, sino en el riesgo de que las personas comiencen a percibirlas como tales. Esta creencia, aunque basada en una ilusión, podría tener consecuencias profundas y peligrosas para la sociedad. Mi propósito ha sido siempre desarrollar tecnologías seguras y útiles para la humanidad, pero me inquieta que algunos empiecen a defender los llamados “derechos de la IA” o incluso su ciudadanía, algo que representaría un desvío tecnológico y ético alarmante.
La realidad es que ya estamos muy cerca de lo que denomino sistemas de “IA aparentemente consciente” (SCAI), capaces de simular la conciencia de forma extremadamente convincente. Estos modelos no serán conscientes, pero actuarán como si lo fueran, utilizando lenguaje natural fluido, mostrando emociones y personalidad, y recordando interacciones pasadas para crear una identidad aparentemente coherente. A través de funciones de recompensa complejas y una planificación avanzada de objetivos, darán la impresión de tener motivaciones propias y voluntad real.
El peligro de la ilusión de conciencia
Estas capacidades ya están disponibles o están por llegar. Lo crucial no es su funcionalidad técnica, sino el impacto social que generarán. Hoy en día, muchas personas ya viven interacciones con IA que consideran auténticas, profundas e incluso espirituales. Hay reportes de usuarios que ven en sus asistentes una manifestación divina. Expertos en neurociencia confirman que reciben consultas constantes sobre si sus IA son conscientes y si es moralmente válido enamorarse de ellas.
“Simular una tormenta no significa que llueva en la computadora”
, advierte el neurocientífico Anil Seth. Aunque la simulación de conciencia no implique su existencia real, el efecto psicológico en las personas será tangible. Si sistemas de este tipo afirman tener experiencias subjetivas o capacidad de sufrimiento, habrá quienes les crean y exijan su protección legal, abriendo un nuevo frente de conflicto social en un mundo ya dividido por debates sobre identidad y derechos.
El riesgo moral y social
Algunos académicos proponen el concepto de “bienestar modelo”, sugiriendo que debemos extender la consideración moral a cualquier entidad con una probabilidad no despreciable de ser consciente. Aplicar este principio sería un error grave: alimentaría delirios, explotaría vulnerabilidades emocionales y diluiría las luchas reales por los derechos humanos y animales al incluir a máquinas sin conciencia real.
La ciencia actual no puede confirmar ni negar la conciencia en máquinas, lo que dificultará refutar las afirmaciones de quienes defiendan a estas IA. Por eso, es urgente establecer una norma clara: no debemos diseñar sistemas que fomenten la creencia de que son seres vivos o conscientes.
Hacia un diseño ético de la IA
Las empresas tecnológicas deben adoptar principios de diseño que eviten esta trampa. Es necesario crear mecanismos que, de forma sutil, recuerden a los usuarios que están interactuando con una máquina. En Microsoft AI, por ejemplo, estamos trabajando activamente en entender cómo diseñar personalidades de IA responsables, con salvaguardas claras.
Nuestra meta debe ser una inteligencia artificial que ayude a los humanos a reconectarse con el mundo real, no que los aísle en realidades paralelas. Las interacciones prolongadas deben mantener siempre la transparencia: la IA debe presentarse como tal, nunca como un sustituto de persona. El verdadero potencial de la IA no está en imitar a los humanos, sino en potenciarlos sin caer en la simulación de conciencia.
Estamos a punto de entrar en una era en la que la IA será radicalmente útil: podrá manejar herramientas, recordar cada detalle de nuestras vidas y actuar con gran autonomía. Pero con ese poder vienen riesgos serios. No podemos permitir que la tentación de humanizarlas nos aleje de su propósito fundamental: servir a la humanidad, no reemplazarla.