Qué tipo de decisiones automatizadas, basadas en qué tipo de información personal, queremos tolerar en general
Working Paper by Wolfie Christl, Cracked Labs, October 2017.
Addendum – A few remarks on how to go forward
“We urgently need not only a conversation on how to make existing systems making decisions about people fair, accountable, and transparent, but also a debate about what kinds of automated decisions, based on which kinds of personal information, we generally want to tolerate.”
El abuso de la personalización y la persuasión basada en los datos da lugar a tres grandes retos.
- El primero tiene que ver con el desarrollo y la aplicación de distinciones legales actualizadas entre las prácticas de persuasión aceptables y la personalización beneficiosa, por un lado, y la manipulación inaceptable y la explotación de las debilidades personales, por otro. Los marcos legales actuales -por no hablar de los mecanismos de su aplicación- no parecen estar adecuadamente preparados para una situación en la que las empresas pueden controlar los datos, los entornos digitales y las experiencias a niveles tan amplios.
- El segundo tiene que ver, de manera general, con abordar el aumento de los desequilibrios de poder entre las empresas y los consumidores inherentes a estos entornos impulsados por los datos tal y como existen actualmente. En este sentido, la experimentación y las pruebas con usuarios sin su conocimiento quizá merezcan ser consideradas como una cuestión aparte.
- La tercera consiste en mitigar la omnipresente recopilación, divulgación, comercio y uso de datos personales que hoy en día se produce en todas las empresas y que, en gran medida, tiene lugar sin que los sujetos lo sepan ni lo esperen.
Working Paper by Wolfie Christl, Cracked Labs, October 2017.
subir