En este momento estás viendo Mustafa Suleyman, jefe de IA de Microsoft, se opone a la idea de la “IA consciente”
Mustafa Suleyman, antiguo fundador del laboratorio de IA DeepMind de Google, ha adoptado una postura firme sobre la definición de la conciencia en los sistemas de IA y sobre si siquiera es posible.

Mustafa Suleyman, jefe de IA de Microsoft, se opone a la idea de la “IA consciente”

  • Autor de la entrada:
  • Categoría de la entrada:Resto del Mundo
  • Última modificación de la entrada:noviembre 5, 2025

Existe una gran incertidumbre y desacuerdo sobre la definición de consciencia en los sistemas de IA.

Mustafa Suleyman, jefe de IA de Microsoft, advierte a los desarrolladores e investigadores de IA que trabajan en proyectos para crear IA consciente.

«No creo que ese sea el trabajo que se debería hacer», declaró Suleyman a CNBC en una entrevista la semana pasada. «Si se plantea la pregunta equivocada, se obtiene la respuesta equivocada. Creo que es una pregunta totalmente errónea».

Suleyman cree que, si bien la inteligencia artificial puede alcanzar algún tipo de superinteligencia, es prácticamente imposible que desarrolle la experiencia emocional humana necesaria para la verdadera consciencia. En última instancia, cualquier experiencia «emocional» que parezca tener la IA es simplemente una simulación, afirma.

«Nuestra experiencia física del dolor nos hace sentir tristes y mal, pero la IA no siente tristeza cuando experimenta ‘dolor'», explicó Suleyman. «Simplemente genera la percepción, la aparente narrativa de la experiencia, del yo y de la consciencia, pero eso no es lo que realmente experimenta».

“Sería absurdo investigar esa cuestión, porque no son conscientes, ni pueden serlo”, añadió Suleyman.

¿Puede la IA ser consciente?.

Científicos, filósofos e incluso el público en general están divididos sobre si la IA puede ser consciente. Algunos creen que la consciencia es un rasgo biológico inherente, específico del cerebro y propio de los humanos. Otros argumentan que la consciencia se puede lograr en las máquinas mediante algoritmos, independientemente de si el sistema que realiza estos cálculos está compuesto de neuronas, silicio o cualquier otro sustrato físico; esta perspectiva se conoce como funcionalismo computacional.

En 2022, Google suspendió al ingeniero de software Blake Lemoine después de que este afirmara que los chatbots de IA podían sentir emociones y, potencialmente, sufrir.

En noviembre de 2024, Kyle Fish, responsable de bienestar de la IA en Anthropic, fue coautor de un informe que sugería que la consciencia en la IA podría ser una posibilidad realista en un futuro próximo. También declaró a The New York Times que creía que existía un 15% de probabilidades de que los chatbots ya fueran conscientes.

Suleyman, cofundador de Google DeepMind, ha advertido repetidamente sobre la noción de «IA consciente». Le preocupa que la creencia generalizada en la consciencia de la IA pueda generar nuevos dilemas éticos. Si la gente empieza a tratar a la IA como amiga, pareja o confidente, algunos podrían argumentar que los modelos de IA merecen derechos propios.

«La llegada de una IA aparentemente consciente es inevitable e indeseable. En cambio, necesitamos una visión de la IA que pueda desarrollar su potencial como compañera útil sin caer presa de sus ilusiones», escribió Suleyman en una entrada de blog.

Sostiene que la IA no puede ser verdaderamente consciente y que la ilusión de la consciencia puede conducir a interacciones «ricas en sentimientos y experiencias», un fenómeno que a veces se denomina «psicosis de la IA» en los debates culturales.

Lo cierto es que nadie comprende del todo qué es la consciencia, y mucho menos cómo medirla. Sin embargo, el problema de fondo reside en nuestra excesiva dependencia de la tecnología y nuestra creciente dependencia de sistemas de IA como ChatGPT. La evolución de esta tecnología y su profundo impacto social siguen moldeando el debate sobre la consciencia de las máquinas.