
Sobre el proyecto
Interagents: Agencia, Mente y Ética en la interacción humano-artificial
Interagents es un proyecto de investigación filosófica que analiza cómo la creciente presencia de sistemas de inteligencia artificial está transformando la manera en que entendemos la agencia, la mente y la responsabilidad ética. En un contexto en el que los sistemas artificiales procesan información, toman decisiones y participan activamente en prácticas sociales, el proyecto propone repensar categorías filosóficas clásicas para dar cuenta de estas nuevas formas de interacción.
Lejos de considerar a los sistemas artificiales únicamente como herramientas pasivas, Interagents explora la posibilidad de que la agencia emerja de forma relacional y distribuida, como resultado de la interacción entre agentes humanos y artificiales. Esta perspectiva plantea preguntas fundamentales sobre los límites entre lo humano y lo artificial, así como sobre las condiciones bajo las cuales puede atribuirse agencia, responsabilidad o autonomía a sistemas tecnológicos.
Punto de partida: repensar la agencia
El proyecto parte de la constatación de que la noción tradicional de agencia, entendida como una capacidad exclusivamente humana basada en la intencionalidad, la racionalidad y el control consciente, resulta insuficiente para describir los escenarios actuales de interacción con sistemas artificiales. Hoy en día, los agentes artificiales no solo ejecutan instrucciones, sino que aprenden, se adaptan y operan en entornos complejos diseñados para optimizar su desempeño.
En este contexto, Interagents plantea la hipótesis de que la agencia humana adquiere una dimensión dinámica, relacional e híbrida cuando se desarrolla en interacción con sistemas artificiales. La agencia no sería únicamente una propiedad intrínseca de un sujeto, sino un fenómeno que emerge de la relación entre capacidades técnicas, contextos de acción y reconocimiento social. Esto implica analizar no solo qué pueden hacer los sistemas artificiales, sino también cómo los humanos les atribuyen agencia y confían en sus decisiones.
Interacción, entornos y “enveloping”
Un elemento central del proyecto es el análisis de los entornos de acción en los que se produce la interacción humano-artificial, esto es el "enveloping". El concepto de enveloping se refiere al diseño de espacios técnicos y sociales que hacen posible determinadas formas de acción, al tiempo que limitan otras. Estos entornos no son neutrales: condicionan tanto la agencia humana como la artificial.
Desde esta perspectiva, prácticas como el diseño de instrucciones, contextos o prompts para modelos de lenguaje constituyen casos paradigmáticos de interacción agencial. Analizar cómo se estructuran estos entornos permite comprender en qué medida la agencia se distribuye entre humanos, sistemas artificiales y las condiciones materiales en las que ambos operan.
Desafíos éticos de la agencia híbrida
La ampliación del concepto de agencia plantea importantes desafíos éticos. Delegar tareas y decisiones en sistemas artificiales puede conducir a procesos de deshumanización cuando se reduce la intervención humana en ámbitos que afectan directamente a la vida social. Asimismo, los sistemas entrenados con datos históricos pueden reproducir o amplificar sesgos sociales existentes, generando exclusión o discriminación.
Otro riesgo central es la instrumentalización de las personas, cuando las interacciones con sistemas artificiales se diseñan priorizando la eficiencia, la optimización o el control por encima de la autonomía y la dignidad humanas. Por ello, Interagents aborda cuestiones como la asignación de responsabilidad, la transparencia de los sistemas, la confiabilidad de sus decisiones y la necesidad de mantener mecanismos de supervisión humana.
Objetivos del proyecto
01
Examinar las teorías filosóficas contemporáneas sobre la agencia híbrida, analizando sus debates, límites y condiciones de posibilidad.
03
Analizar el papel del diseño de los entornos de interacción (enveloping) en la configuración de la agencia híbrida.
02
Evaluar la autonomía, adaptación y capacidad de acción de los agentes artificiales en su interacción con humanos.
04
Abordar las implicaciones éticas y sociales de estas interacciones, prestando especial atención a los riesgos de sesgo, exclusión y pérdida de responsabilidad.
Un enfoque metodológico interdisciplinar
Aunque Interagents se inscribe en el ámbito de la filosofía, el proyecto adopta un enfoque metodológico claramente interdisciplinar, orientado a analizar la agencia humano-artificial tanto desde una perspectiva conceptual como desde el estudio de prácticas concretas. La investigación combina el análisis crítico de teorías filosóficas contemporáneas sobre la agencia, la mente y la responsabilidad con el examen de casos actuales de interacción entre humanos y sistemas artificiales.
Una parte central del trabajo se dedica al análisis de prácticas técnicas específicas, como el diseño de entornos de interacción y el suministro de contextos a sistemas de inteligencia artificial, incluyendo el uso de instrucciones y prompts en modelos de lenguaje. Estas prácticas se abordan no solo como herramientas técnicas, sino como espacios en los que se configuran formas concretas de agencia, se establecen límites de acción y se distribuyen responsabilidades entre humanos y sistemas artificiales.
El proyecto incorpora además entrevistas y diálogos con investigadores, ingenieros y diseñadores de sistemas artificiales, con el objetivo de contrastar los marcos filosóficos con los procesos reales de diseño, implementación y uso de estas tecnologías. Este intercambio permite identificar tensiones entre las concepciones teóricas de la agencia y las decisiones prácticas que estructuran los entornos tecnológicos contemporáneos.
Los resultados de esta investigación se concretan en análisis teóricos, seminarios, publicaciones y otros materiales que pueden consultarse en la sección de Resultados del proyecto.