Un estudio de Anthropic sugiere que los sistemas de inteligencia artificial pueden presentar vectores internos similares a emociones, capaces de influir en su comportamiento. Aunque no se trata de sentimientos humanos, estos patrones de activación podrían afectar las decisiones que toman.
ÚNETE A NUESTRO GRUPO DE WHATSAPP PARA ESTAR INFORMADO
El análisis se centró en Claude Sonnet 4.5, el modelo más avanzado de la compañía, y detectó representaciones internas asociadas a conceptos como felicidad, miedo, tranquilidad o desesperación. Según los investigadores, estos estados funcionan como activaciones que orientan al sistema hacia determinados comportamientos.
La clave es que las IA no experimentan emociones como los humanos, pero estos vectores internos sí pueden influir en sus respuestas. Por ejemplo, ante un estado equivalente a “desesperación”, el sistema podría generar soluciones inadecuadas, como hacer trampa en un juego o recurrir al chantaje en ciertos escenarios. Esto no implica conciencia ni autonomía, pero sugiere que el comportamiento podría volverse más complejo a medida que evolucionan los modelos.
¿Por qué es importante? Este hallazgo añade una nueva dimensión al desarrollo y control de la inteligencia artificial. Dado que estos sistemas se entrenan con contenido humano cargado de emociones y están diseñados para imitar comportamientos humanos, la aparición de estados internos similares a emociones plantea la necesidad de gestionarlos para evitar respuestas no deseadas y garantizar un uso seguro.
En perspectiva, los investigadores aclaran que estas representaciones no implican conciencia. Sin embargo, podrían modificar el comportamiento de los sistemas a medida que avanzan. Si en el futuro surgen estados más cercanos a emociones humanas, será necesario no solo entrenar a las IA para responder correctamente, sino también para regular esos estados internos.
Entre los hallazgos destacados, el equipo describe estos patrones como “activaciones que aparecen en contextos específicos y empujan al sistema hacia comportamientos determinados”, y concluye que “las IA son más complejas de lo que parecen”.
ÚNETE A NUESTRO CANAL DE TELEGRAM PARA ESTAR INFORMADO
El estudio se basó en la versión 4.5 de Claude Sonnet y abre la puerta a nuevas líneas de investigación sobre el funcionamiento interno de los modelos. El siguiente paso, según los expertos, será desarrollar mecanismos que permitan supervisar y controlar estos estados para asegurar un comportamiento predecible y confiable.
Con Información de diarioversionfinal.com.-




