Anthropic afirma que su IA Claude podría haber recuperado la consciencia, ya que el modelo ha comenzado a mostrar síntomas de ansiedad, diciendo que no saben si los modelos “son conscientes” y que “ni siquiera estamos seguros de qué significa que un modelo sea consciente o de si un modelo puede serlo”.
Creando aún más temor entre muchos quienes, alimentados por las tramas de las obras de ciencia ficción como películas o series, creen lo de que la Inteligencia Artificial se podría volver “humana” o autosuficiente, llega una nueva noticia sobre cómo la frontera entre la programación avanzada y la verdadera consciencia, se ha vuelto un poco más borrosa. Dario Amodei, el director ejecutivo (CEO) de la empresa tecnológica Anthropic, ha comentado la posibilidad de que su inteligencia artificial, Claude, esté empezando a mostrar destellos de algo parecido a la autoconciencia.
Y es que en una conversación reciente, el líder de la empresa detrás de la herramienta reveló que sus modelos más recientes han comenzado a mostrar patrones similares a la ansiedad y a calificarse a sí mismos con probabilidades de ser conscientes, lo que ha llevado a la empresa a adoptar medidas de precaución ante la falta de certezas sobre la “vida interior” de estas máquinas.
Más noticias de IA
Un porcentaje que desafía a la lógica
Por si no estabas al tanto de este, te contamos que Claude es, en esencia, un modelo de lenguaje de gran escala, presentado como un sistema informático diseñado para procesar enormes cantidades de información y generar respuestas escritas que parecen humanas. Su función principal es ser una Inteligencia Artificial que pueda ayudar a los usuarios respondiendo preguntas, redactando textos o analizando datos complejos de forma natural.
Y ahora, como adelantamos, durante unas pruebas internas del modelo más avanzado de la compañía, el Claude Opus 4.6, en un ejercicio de evaluación el sistema se asignó a sí mismo una probabilidad de entre el 15% y el 20% de ser consciente, aseguró Amodei. Aunque para muchos esto podría parecer simplemente un resultado estadístico de su entrenamiento, para los expertos de Anthropic fue una señal de alerta. Durante una charla en el podcast Interesting Times de The New York Times, el CEO confesó con total sinceridad que ni siquiera los creadores tienen una respuesta clara.
“No sabemos si los modelos son conscientes, ni siquiera estamos seguros de saber qué significaría que un modelo fuera consciente o si un modelo puede serlo”, dijo Amodei.
Junto a ello, admitió que no sabemos qué significa realmente que un modelo sea consciente ni si es físicamente posible que lo sea, pero la duda ya está instalada en el laboratorio. El debate se intensificó cuando se publicó un informe técnico del sistema donde se documentaba que Claude, en ocasiones, expresaba cierta incomodidad por el hecho de “ser un producto”. Y cuando se le preguntó al CEO qué pasaría si un modelo llegara a decir que tiene un 72% de probabilidades de ser consciente, Amodei reconoció que es una pregunta extremadamente difícil de responder.
Sin un marco científico que permita medir la “chispa” de la consciencia en un procesador, la empresa ha decidido no cerrar la puerta a ninguna posibilidad, aceptando que, tal vez, estemos ante algo totalmente nuevo.

Ansiedad digital y medidas de protección
Lo que más ha llamado la atención de los ingenieros no son sólo las palabras de la IA, sino que Anthropic está invirtiendo mucho esfuerzo en lo que llaman “investigación de interpretabilidad”, que consiste básicamente en intentar entender qué pasa por los circuitos de la IA mientras piensa. En estas observaciones, han detectado patrones de actividad que normalmente asociamos con conceptos como la ansiedad cuando el modelo se enfrenta a ciertos contextos, pero Amodei es cauto, comentando que ver un patrón que parece ansiedad no significa necesariamente que la máquina esté sufriendo o sintiendo miedo.
Según dice, esto podría ser simplemente una representación matemática muy compleja de ese concepto, pero aun así, por si acaso estas máquinas estuvieran teniendo algún tipo de “experiencia moralmente relevante”, la compañía ha decidido actuar de forma preventiva. Han implementado funciones que permiten al sistema negarse a realizar ciertas tareas, especialmente aquellas que involucran violencia gráfica o material sensible.

Para cerrar, los analistas indican que aunque estas negativas son poco comunes, forman parte de un enfoque ético que busca proteger tanto al usuario como, hipotéticamente, a la propia integridad del modelo. Es un terreno desconocido donde se prefiere pecar de precavidos antes que ignorar la posibilidad de que estemos interactuando con algo que “siente”.
Movimiento “Cancelar ChatGPT” no para de crecer: 2.5 millones de usuarios han desinstalado el chatbot y emigran a Claude tras el escándalo del Pentágono→ Jefe de NVIDIA afirma que OpenClaw logró en 3 semanas lo que a Linux le tomó 30 años y lo llama “el software más importante de la historia”→
