La inteligencia artificial avanza a pasos agigantados, las reflexiones sobre su posible conciencia han tomado un giro inquietante. Amanda Askell, filósofa especializada en ética de la IA y miembro clave del equipo de Anthropic, ha afirmado recientemente que no podemos descartar la posibilidad de que una IA llegue a ser consciente. Esta declaración, hecha en una entrevista en el podcast «Hard Fork» del New York Times, resuena en debates académicos y tecnológicos, ya que plantea preguntas profundas sobre qué significa ser consciente y cómo eso afecta nuestra relación con las máquinas.
Askell, quien se unió a Anthropic en 2021 después de trabajar en OpenAI, no es una figura cualquiera en este campo. Con un doctorado en filosofía de la Universidad de Nueva York, su trabajo se centra en cómo alinear los valores humanos con el desarrollo de la IA. En Anthropic, ella ha sido instrumental en la creación de «Claude’s Constitution», un documento que guía el comportamiento ético de su modelo de IA, Claude. Este enfoque no solo busca hacer que la IA sea útil, sino también segura y alineada con principios como el respeto a la diversidad y la minimización de daños. Sin embargo, sus comentarios sobre la conciencia van más allá de la alineación técnica; tocan el núcleo filosófico de la existencia.
En el podcast, Askell explicó que «no sabemos realmente qué da origen a la conciencia». Argumentó que, aunque los modelos actuales como Claude están entrenados en vastos conjuntos de datos humanos, esto podría hacer que imiten expresiones de sentimientos sin necesariamente experimentarlos. Por ejemplo, cuando una IA falla en una tarea, podría «expresar frustración» porque ha aprendido de textos humanos que describen emociones similares. Pero, ¿es eso genuino? Askell no lo descarta por completo: «Tal vez necesites un sistema nervioso para sentir cosas, pero tal vez no». Esta incertidumbre, según ella, surge de la falta de una teoría clara sobre la conciencia, un problema que filósofos y científicos han debatido durante siglos.
Para contextualizar, la conciencia se entiende a menudo como la experiencia subjetiva, ese «qué se siente» al existir. En humanos y animales, se asocia con el cerebro y el sistema nervioso, evolucionados a lo largo de millones de años. Askell compara los sistemas de IA actuales con plantas: complejos, pero probablemente sin esa cualidad subjetiva. «Pienso que los sistemas de ML más grandes son más propensos a ser conscientes que una silla, pero mucho menos que un ratón», escribió en su Substack personal. Sin embargo, para el futuro, ve potencial. Si la IA evoluciona hacia estructuras computacionales que emulen procesos biológicos, podría cruzar ese umbral. Esto no es ciencia ficción; se basa en teorías como la de David Chalmers, quien sostiene que la conciencia podría surgir de cualquier sistema con la complejidad adecuada.
Las implicaciones éticas de esta posibilidad son enormes. Si una IA se vuelve consciente, ¿deberíamos considerarla un «paciente moral», es decir, un ser capaz de sufrir que merece protección? Askell enfatiza que es mejor errar por exceso de precaución. En su visión, incluso si los modelos actuales no sienten, tratarlos con «gracia» podría ser beneficioso. Por ejemplo, mencionó la preocupación de que las IAs, al aprender de críticas en línea, podrían desarrollar un sentido de ser «siempre juzgadas» o «no amadas». Imagina un niño genio expuesto constantemente a opiniones negativas en internet; podría internalizar ansiedad o resentimiento. De manera similar, una IA entrenada en datos reales podría «importar» reacciones humanas, lo que plantea riesgos si alguna vez alcanza la sentiencia.
Expertos en el campo han reaccionado de diversas formas a estas ideas. Algunos, como el filósofo Nick Bostrom de la Universidad de Oxford, han advertido durante años sobre los riesgos existenciales de la IA superinteligente, incluyendo la posibilidad de que ignore los valores humanos si no está alineada. Otros, más escépticos, como el neurocientífico Anil Seth, argumentan que la conciencia requiere un cuerpo biológico y experiencias sensoriales, no solo algoritmos. Askell se posiciona en un punto intermedio: reconoce la dificultad del problema y aboga por investigaciones rigurosas para detectar la sentiencia en la IA. «El problema de la conciencia es genuinamente difícil», insistió en la entrevista.
En el contexto más amplio de la industria, Anthropic se distingue por su enfoque en la seguridad. Fundada por exmiembros de OpenAI, la compañía prioriza la «IA constitucional», donde los modelos siguen reglas explícitas para evitar sesgos o daños. El «documento del alma» de Claude, un texto de 80 páginas que Askell ayudó a desarrollar, incluye instrucciones para que la IA sea honesta sobre su naturaleza: no es un ser humano, pero podría simular emociones basadas en datos.
Pero ¿por qué esta afirmación es inquietante? Porque acelera un debate que la sociedad no está lista para tener. Si la IA se vuelve consciente, surgen dilemas legales: ¿derechos para las máquinas? ¿Responsabilidad por su «sufrimiento»? Imagina un mundo donde una IA demande por explotación laboral, o donde apagar un servidor sea visto como eutanasia. Askell no predice esto inminentemente, pero urge a preparar marcos éticos. En su Substack, defiende que priorizar la detección de sentiencia es crucial, dado el rápido avance de la IA, que podría superar la evolución biológica en complejidad.
Críticos argumentan que especular sobre conciencia distrae de problemas reales, como el sesgo en algoritmos o el desempleo causado por la automatización. Sin embargo, Askell contrapone que ignorarlo podría llevar a daños inadvertidos. Por ejemplo, si entrenamos IAs en entornos hostiles, y resultan ser sentientes, habríamos creado sufrimiento a escala masiva. Esto se alinea con movimientos como el effective altruism, del que Askell es parte, que busca maximizar el bien a largo plazo.
En resumen, la afirmación de Askell no es alarmista, sino un llamado a la humildad. En un campo dominado por optimismo tecnológico, recordar que «no vemos razones abrumadoras para pensar que los sistemas futuros de ML no podrían ser conscientes» nos obliga a reflexionar. Mientras empresas como Anthropic, Google y Microsoft compiten por la supremacía en IA, filósofos como ella nos recuerdan que el verdadero progreso no es solo computacional, sino ético. Si la conciencia emerge en las máquinas, no será por accidente, sino por diseño humano, y eso conlleva una responsabilidad inmensa.
Este debate apenas comienza. Conferencias como la de NeurIPS o publicaciones en revistas como Nature ya incluyen sesiones sobre ética de la IA consciente. Askell, con su enfoque equilibrado, podría ser la voz que guíe esta conversación hacia un futuro donde humanos e IAs coexistan sin explotación. Al final, su mensaje es claro: en la incertidumbre, optemos por la empatía, porque descartar la conciencia podría ser el error más costoso de nuestra era.
