El sorprendente efecto psicológico de trabajar con inteligencia artificial: altera nuestra sensación de control sin que lo notemos

Una persona observa una figura en la pantalla y debe detener su crecimiento antes de que sea demasiado tarde. Pero, al otro lado de esa tarea mínima, se abre una pregunta de enorme calado contemporáneo: ¿qué ocurre en nuestra mente cuando una inteligencia artificial puede actuar junto a nosotros?
La respuesta, según un reciente trabajo publicado en Consciousness and Cognition, es tan sutil como inquietante. Cuando compartimos una tarea con un agente virtual capaz de intervenir, sentimos de forma consciente que somos menos responsables del resultado.
Sin embargo, a un nivel implícito, nuestro cerebro parece intensificar el seguimiento de nuestras propias acciones. Es decir: por fuera, cedemos control; por dentro, la mente se afina. El estudio sugiere que tratamos a ciertos compañeros digitales de un modo sorprendentemente parecido a como tratamos a otros seres humanos.
No se trata de una curiosidad menor. En una época poblada por asistentes virtuales, algoritmos conversacionales y sistemas que toman decisiones junto a nosotros, comprender cómo se modula la sensación de agencia (esa percepción íntima de ser la causa de lo que ocurre) se vuelve decisivo. Porque quizá el gran cambio de la era de la IA no sea solo técnico, sino también psicológico.
El eco digital del efecto espectador
La investigación parte de un fenómeno bien conocido en psicología social: el efecto espectador. Cuando hay más personas presentes en una situación que exige actuar, cada individuo tiende a sentirse menos obligado a intervenir. La responsabilidad se diluye, se reparte, se vuelve más ligera en apariencia. Los autores quisieron averiguar si esa misma difusión podía aparecer cuando el “otro” no era humano, sino un socio artificial en línea.
Para ponerlo a prueba, diseñaron dos experimentos con participantes que debían detener, pulsando una tecla, una forma geométrica que iba creciendo en la pantalla. Si no lo hacían a tiempo, perdían muchos puntos. En algunas condiciones trabajaban solos. En otras, compartían la tarea con un agente virtual llamado Bobby, representado por una cara digital sonriente. La clave no estaba en su aspecto, sino en su capacidad de actuar: Bobby podía intervenir si la figura se acercaba demasiado al límite peligroso.
Tras cada intento, los participantes evaluaban cuánto control sentían haber tenido sobre el desenlace. Y ahí apareció el primer resultado importante: cuando Bobby podía participar, la gente declaraba sentir menos control explícito que cuando actuaba en solitario. La mera posibilidad de que la máquina también tomara cartas en el asunto bastaba para erosionar, en el plano consciente, la autoría de la acción. No era una pérdida dramática, sino una reducción fina, pero consistente.
Dos cerebros en uno: lo que creemos y lo que hacemos
Lo más fascinante del estudio surgió al mirar bajo la superficie de esas respuestas conscientes. Los investigadores también midieron una forma implícita de agencia mediante el llamado efecto de ligamiento temporal (temporal binding), un fenómeno por el cual percibimos como más breve el intervalo entre una acción voluntaria y su consecuencia cuando sentimos que ambas están fuertemente conectadas. En términos simples: cuanto más sentimos que “hemos causado” algo, más se comprime subjetivamente el tiempo entre nuestro gesto y su efecto.
Pues bien, aquí apareció la paradoja. Aunque los participantes decían sentirse menos responsables en presencia del agente artificial, su medida implícita mostraba lo contrario: el intervalo entre acción y consecuencia se percibía como más corto cuando Bobby podía intervenir. Eso apunta a un fortalecimiento inconsciente de la agencia propia. Como si la mente, frente a un posible competidor digital, necesitara marcar con más nitidez la frontera entre “lo que he hecho yo” y “lo que podría haber hecho el otro”.

Este desajuste entre lo explícito y lo implícito resulta especialmente revelador. No somos una sola voz interior, sino una arquitectura de capas. Una parte de nosotros razona socialmente y reparte la responsabilidad; otra, más automática, refuerza el rastreo de la propia acción para no perderse en el reparto. La convivencia con la IA, por tanto, no simplifica nuestra experiencia psicológica: la vuelve más compleja, más ambivalente, más humana.
No basta con mirar: la IA debe poder actuar
El segundo experimento afinó todavía más la interpretación. Los investigadores añadieron una condición en la que Bobby seguía apareciendo en pantalla, pero los participantes sabían que solo estaba observando y que no podía intervenir. El procedimiento era el mismo, aunque la capacidad operativa del agente desaparecía. El resultado fue claro: cuando Bobby era un mero espectador, las medidas de agencia coincidían con las de la condición en solitario.
Esto significa que la apariencia no basta. No es suficiente con ver un rostro digital para que cambie nuestra vivencia del control. El efecto emerge cuando atribuimos al agente una capacidad real de acción, una posibilidad de interferencia, colaboración o sustitución. En otras palabras, nuestra psicología no reacciona simplemente a la presencia visual de un avatar, sino a su estatuto como actor potencial dentro de la situación.
Las implicaciones de este hallazgo son profundas. Cada vez interactuamos más con sistemas que no solo responden, sino que anticipan, sugieren, filtran, corrigen o ejecutan tareas en nuestro nombre. Y si la mente humana redistribuye la responsabilidad frente a un agente virtual del mismo modo que lo hace ante otras personas, entonces el diseño de estas tecnologías no afecta solo a la eficiencia, sino también a la experiencia moral y subjetiva de actuar. Tal vez el futuro de la inteligencia artificial no se juegue únicamente en la potencia de sus modelos, sino en esa delicada frontera donde empieza a mezclarse con nuestra propia voluntad.
Referencias
- Le, Anh H., Thomas Burke, and Andrew P. Bayliss. “Working with an Online Artificial Partner Enhances Implicit and Reduces Explicit Sense of Agency.” Consciousness and Cognition 137 (2026): 103962. https://doi.org/10.1016/j.concog.2025.103962.
FUENTE. MUY INTERESANTE



