

Interagents es un proyecto de investigación en filosofía que explora cómo la interacción con sistemas de inteligencia artificial está transformando nuestra comprensión de la agencia, la mente y la ética. El proyecto analiza las relaciones entre humanos y agentes artificiales para repensar qué significa actuar, decidir y asumir responsabilidad en contextos cada vez más mediados por tecnologías inteligentes.
Interagents
Agencia, Mente y Ética: Exploraciones sobre la Interacción Humano-Artificial

Proyecto PID2024-161933NA-I00, financiado por MICIU/AEI/10.13039/501100011033 y FEDER/UE
En un contexto en el que los agentes artificiales no solo procesan información, sino que también toman decisiones, recomiendan acciones y median en prácticas sociales cotidianas, resulta necesario revisar las nociones tradicionales de autonomía, control y responsabilidad. Estas transformaciones plantean desafíos éticos relevantes, como el riesgo de deshumanización, la reproducción de sesgos sociales a través de modelos entrenados con datos desiguales, y la posible instrumentalización de las personas, cuando la interacción con sistemas artificiales se diseña priorizando la eficiencia o el rendimiento por encima de la dignidad y la autonomía humanas.
Interagents tiene como objetivo examinar en qué condiciones puede hablarse de agencia híbrida y cuáles son los límites y capacidades reales de los agentes artificiales en su interacción con los humanos. Así como, analizar el papel que desempeña el diseño de los entornos de acción y de interacción en la configuración de estas dinámicas.
Desde una perspectiva ética, Interagents busca contribuir a un desarrollo responsable de la inteligencia artificial, promoviendo modelos de interacción que preserven la autonomía humana, refuercen la transparencia de los sistemas y minimicen riesgos sociales como la exclusión, la desigualdad o la pérdida de control sobre procesos que afectan a la vida colectiva.
Ejes de la investigación

Agencia
Análisis filosófico y revisión crítica de la noción de agencia (humana y no humana) en contextos humano-artificiales.

Interacción
Análisis de los entornos de acción y del diseño de las condiciones de interacción bajo las cuales los sistemas artificiales pueden operar de manera autónoma.

Ética
Evaluación de los riesgos sociales, políticos y culturales asociados al uso de los sistemas artificiales.
La inteligencia artificial ya participa en decisiones que afectan a la educación, la salud, el trabajo o la vida pública. Comprender cómo estas tecnologías transforman la agencia humana y qué responsabilidades generan es clave para evitar modelos de interacción que refuercen desigualdades, erosionen la autonomía o desplacen la toma de decisiones fuera del control humano.













