¿Pueden los robots tener identidad personal?
Este artículo explora si los robots podrían llegar a poseer identidad personal, una cuestión menos tratada que su estatus moral o sus derechos, pero central para entender la responsabilidad, la agencia y la imputación ética. Tras situar por qué la identidad personal es clave en moral, se dialoga con la literatura reciente para aclarar en qué sentido podría hablarse de identidad en agentes artificiales y qué supuestos se necesitarían. Se revisan contribuciones de la ética de los robots que rozan el problema y se discuten implicaciones y objeciones. La respuesta provisional es condicionalmente afirmativa: dado lo que sabemos y podemos prever, los robots podrían llegar a tener identidad personal bajo ciertas condiciones.
Ideas fundamentales
La identidad personal es un eje de la responsabilidad y la evaluación moral.
Existen algunas formas de identidad personal (identidad relacional) aplicables a agentes artificiales.
Si los robots pudieran tener identidad personal, habría consecuencias éticas y jurídicas relevantes.
Ideas fundamentales
La confianza es compleja: combina constructos subjetuales, objetuales y relacionales con factores de impacto (función de la IA; tipo de resultado; tipo de patología; entre otros)
Se proporciona un marco operativo de factores de confianza guía el diseño, evaluación e implementación de IA clínica.
Cómo citar
Alonso, M. (2025). AI-mediated healthcare and trust: A trust-construct and trust-factor framework for empirical research. Artificial Intelligence Review, 58, Article 337.
Ideas fundamentales
Los marcos clásicos de la ética de la IA son insuficientes si no incorporan vulnerabilidad, relacionalidad y responsabilidad situada.
Una ética del cuidado algorítmico reorienta diseño y gobernanza hacia la no exclusión, la atención al daño y el acompañamiento de usuarios y afectados.
Cómo citar
Alonso, M. (2024). De la ética de la inteligencia artificial a una ética del cuidado en contextos algorítmicos: una llamada de atención. SCIO. Revista de filosofía, 26, 35–51. https://doi.org/10.46583/scio_2024.26.1148
Ideas fundamentales
La prioridad es comprender el peligro y diseñar estrategias antes del hecho consumado tecnológico.
Rigor filosófico para deliberar sobre los riesgos existenciales de la IA.
Cómo citar
Alonso, M. (2016). Introducción a la edición en castellano de Nick Bostrom, Superinteligencia. Teell, 2016.
En seguros de salud, la IA exige máxima cautela: por riesgos de privacidad, sesgo, opacidad y responsabilidad, su adopción debe ser gradual y auditada con monitorización y revisión continuas.
La confianza en la IA clínica entre sanitarios españoles depende sobre todo de la familiaridad tecnológica (mayor en jóvenes y médicos), por lo que su integración exige formación específica por especialidad y regulación clara.
Antes de debatir si llegará la “superinteligencia” se debate si es conceptualmente pensable; tras revisar las tesis del transhumanismo y de Bostrom, se defiende una visión biológica de la inteligencia.
Las tecnologías que afectan al cerebro de manera directa pueden modificar de forma moralmente relevante la identidad personal y la autenticidad de los pacientes, por lo que su evaluación ética debe ser específica.
Propone un modelo integral para evaluar e implementar IA médica autónoma que articula arquitectura técnica, integración clínica y gobernanza ética.
Enlace al artículo
Ortega como pionero de una bio-ecología: su razón vital cuestiona supuestos ecológicos al concebir organismo y entorno como co-constituidos, en sintonía con desarrollos biológicos recientes.