Los sistemas de aprendizaje automático cada día tienen más presencia en nuestra vida cotidiana; por ejemplo, a través de servicios como los asistentes virtuales, los sistemas de recomendación de noticias, los algoritmos de predicción del riesgo o las herramientas de contratación. No obstante, la ética de muchos de estos sistemas sigue resultando ciertamente confusa a la hora de aplicarlos.

Uno de los últimos casos más polémicos, ha sido el de un hombre que utilizó un sitio web para crear un robot conversacional; -un chatbot– que simulara una conversación con su prometida recientemente fallecida (Jessica).

Este tipo de chatbot, conocido como deadbot permitiría al sujeto intercambiar mensajes de texto con su esposa artificial, generando una situación de naturaleza éticamente controvertida, como analizaremos a continuación.

Por un lado, es necesario plantearse si basta con obtener el consentimiento por parte del marido de Jessica para desarrollar un deadbot de la misma. En este sentido, no lo parece en abosluto. El hecho de que una persona fallezca no implica que la misma deje de existir de una forma moralmente relevante, debiendo respetarse ciertas obligaciones morales relativas a los muertos.

Por tanto, parece razonable a la hora de desarrollar un deadbot, solicitar el consentimiento de aquella persona cuya personalidad va a ser imitada.

En el caso de que Jessica hubiese dado su consentimiento, ¿bastaría para considerar ética la creación de un deadbot? En este punto es preciso recordar que no es ético consentir acciones que puedan resultar perjudiciales para nosotros mismos; así como tampoco perjudicar el honor, reputación o dignidad de los muertos aun habiendo obtenido su consentimiento.

Basándonos en lo anterior, parece razonable afirmar que, si el desarrollo de un deadbot no se corresponde con lo que la persona afectada había aceptado en un inicio, dicho consentimiento sería invalido.

Por último, en el caso de que el deadbot tuviese efectos indeseables, actuando de forma degradante para la memoria del sujeto, ¿quién asumiría la responsabilidad?

Por parte de los expertos en IA, se realizan dos enfoques principales: los que consideran que la responsabilidad debería recaer en los diseñadores y desarrolladores del sistema, y los que entienden que la responsabilidad moral de los resultados debería distribuirse entre todos los agentes que interactuaron con el bot.

En conclusión, podemos afirmar que sería ético el desarrollo de un deadbot siempre que:

  • Tanto la persona afectada como quien hace uso del bot hayan dado su libre consentimiento para el desarrollo de este.
  •  Los desarrollos se ciñan a lo que la persona imitada consintió; prohibiéndose los desarrollos y usos no ceñidos, así como los contrarios a su dignidad.         
  • Todas las personas implicadas en su desarrollo y utilización asuman la responsabilidad de sus acciones, especialmente si son negativas.

Puedes consultar la noticia completa aquí.

Observatorio de Privacidad y Derecho Digital

Suscríbete a nuestra Newsletter

¡Únete a nuestra lista de contactos y recibe las últimas noticias de Privacidad, Derechos digitales y Ciberseguridad!

¡Gracias! Hemos recibido su mail correctamente