Nuestro compañero Francisco Lara, miembro e investigador de FiloLab, acaba de publicar el artículo «Why a Virtual Assistant for Moral Enhancement When We Could have a Socrates?» (https://doi.org/10.1007/s11948-021-00318-5) en la revista Science and Engineering Ethics. Os dejamos a continuación con el abstract de su trabajo:
«¿Puede la Inteligencia Artificial (IA) ser más efectiva que la instrucción humana para la mejora moral de la gente? El autor sostiene que ello sólo lo sería si el uso de esta tecnología estuviese orientado al incremento de la capacidad de los individuos para decidir reflexivamente por sí mismos, en lugar de influir directamente su comportamiento. Para apoyar esto, se muestra como el desprecio por la autonomía personal, en particular, invalida el principal propósito para aplicar nuevas tecnologías, tanto biomédicas como basadas en IA, a la mejora moral. Como una alternativa a estas propuestas, este artículo propone un asistente virtual que, a través del diálogo, neutralidad y tecnologías de realidad virtual, puede enseñar a los usuarios a tomar mejores decisiones morales por sí mismos. El autor concluye que, siempre que se tomen ciertas precauciones en su diseño, tal asistente podría hacerlo mejor que un instructor humano adoptando la misma metodología educacional».
Puedes descargar el artículo completo en PDF aquí.