Vie, 12/28/2018 - 09:03
Foto de referencia.

¿Cómo desarrollar productos basados en datos éticamente correctos?

Hoy en día las compañías tienen posibilidades de mostrar una campaña para un nuevo producto en distintos medios; utilizan las redes sociales e internet saben que los usuarios pueden tener acceso a un smartphone y lograr de manera más efectiva engagement con los consumidores. Es importante conocer los sesgos a través de los datos del pasado para lograr productos basados en datos éticamente correctos. Te contamos...

Cada vez más son los datos que se almacenan cuando utilizas una aplicación en tu celular o ingresas a un sitio web, ya que existen millones de usuarios que están conectados a estas útiles herramientas.

Para analizar toda esta información, el Big Data se encarga de concentrarla y de procesarla, con el objetivo de usar la más relevante para tomar mejorar la toma de decisiones y acciones estratégicas ante una situación de gobierno o un nuevo producto que alguna marca quiera sacar a la venta.

Aunque no todo es miel sobre hojuelas, muchas veces no es suficiente el análisis de datos simple, es por ello que también se necesita del machine learning, un término que se refiere a la creación de sistemas para que de manera automática se analicen datos y con esto se puedan desarrollar productos de manera ética.

Sin duda, en esta era tecnológica son válidos los cambios, pero ¿que podrán aplicar las empresas para hacerlo de forma correcta?

Fases para eliminar los sesgos…

Recientemente la revista Forbes publicó el artículo llamado Ética y sesgos en los procesos de data analytics, donde menciona que existen barreras que las empresas han logrado identificar en los usuarios. Es por ello que a continuación te presentamos, según este artículo, tres pasos para reducir los sesgos al momento de analizar datos y desarrollar productos de manera ética:

Primera fase

Esta fase consiste en controlar la distorsión de datos, se pueden eliminar datos sensibles que aumenten la discriminación como el código postal, género o raza. Con esto se puede prevenir una futura de discriminación.

Segunda fase

La recopilación es muy importante y una vez que se obtienen los datos, se pueden modificar los algoritmos de data para integrar la antidiscriminación.

Tercera fase

En la tercera fase, se extraen los datos obtenidos en vez de limpiar los originales o cambiar los algoritmos de datos.

RSE frente a la protección de datos personales

Según datos de Forbes,  las empresas hoy están conscientes que los datos son fuente de ventaja competitiva, y saben que los ciudadanos cada vez más están atentos a cómo se comportan los agentes en sus procesos de toma de decisiones informadas. Si un algoritmo arroja un sesgo, el cual ha aprendido de los datos de cómo se tomaban las decisiones históricamente, muy probablemente las personas no los compartan  y la empresa disminuye su valor.

A medida que aumenta el uso y el potencial del Big Data, crece el debate sobre la ética de los datos. La tecnología no es el problema, sino cómo la instruimos y para qué la utilizamos.

Imagine que todo lo que hace cada día está monitorizado. Qué compra en Internet. Qué y con quién habla en las redes sociales. Qué fotos ha hecho. Qué vídeos o series ve. En qué sitio está en ese momento (geolocalización móvil y reconocimiento facial). Qué libros lee. Qué facturas tiene y si es buen pagador o no… Todo. Y ahora imagine que toda esa información conjunta se utiliza para asignar un rating a cada ciudadano. Una calificación que influirá en su posibilidad de obtener un crédito con ciertas condiciones y, quizá en el futuro, también en su posibilidad de conseguir o no ciertos empleos, ir a determinada universidad o acceder a una vivienda concreta.  ¿Ciencia ficción? No. Sobre esto se trabaja en China para –dicen– valorar la confianza y credibilidad de sus 1.300 millones de ciudadanos: el sistema Social Credit System se está desarrollando en fase piloto con voluntarios para, de momento, operaciones financieras. Se implantará totalmente en 2020.

La iniciativa, que recuerda la novela 1984 de G. Orwell, ilustra, en grado extremo, el actual y creciente debate en torno a la ética de los datos. ¿Dónde está la línea que separa un buen de un mal uso o abuso del poder de los datos y los algoritmos?, se pregunta Rachel Botsman, madre filosófica de la economía colaborativa, en su último libro Who can you trust?  How technology brought us together and why it might drive us apart.  Y todo esto antes de que saltara el escándalo Facebook por el uso de los datos de sus usuarios para, supuestamente, influir en campañas políticas.

Empecemos por el principio. El problema no es la tecnología. El Big Data o Data Analytics y las técnicas de Inteligencia Artificial que lo refuerzan, tienen múltiples usos que, sin duda alguna, contribuyen al desarrollo de la sociedad. Ya se utilizan para investigar enfermedades hoy incurables como el cáncer, para anticipar epidemias y enfermedades, para organizar ayudas humanitarias a gran escala, para controles de inmigración en las fronteras, para diseñar ciudades, edificios u hogares inteligentes, para prevenir el fraude, para reforzar la seguridad en los servicios públicos… Además de muchas otras posibilidades que permiten mejorar la eficiencia de las empresas y su atención a clientes.

Antes de entrar en el debate, conviene aclarar que ni los datos hacen únicamente referencia a datos personales. Ni el concepto de ética del dato se refiere solo a dos momentos concretos: recabar la autorización de los consumidores y proteger su privacidad. Si así fuera, todo sería bastante sencillo.

La ética debe estar implícita en todo el ciclo de vida del Big Data. Empezando por su recolección: por ejemplo, ¿son válidos los datos oficiales de una población si deliberadamente se ha excluido cierta etnia?  Siguiendo por lo más complejo, el algoritmo utilizado: ¿Puede una simple traducción automatizada pecar de machista? ¿Qué validez tendría un juicio apoyado en la alta probabilidad de volver a delinquir que apunta el rating criminal de ese individuo  [sistema muy utilizado en Estados Unidos] según unos datos sesgados? Estos ejemplos ilustran que es un error pensar que, frente a la subjetividad humana, los datos, el Big Data, son siempre acertados y objetivos. Y no necesariamente. Los datos pueden estar sesgados, mal combinados, manipulados o, simplemente, mal interpretados porque se basaron en algoritmos que resultan erróneos.

Pero vayamos al último eslabón de la cadena, el más sutil y poco evidente, el propósito de los datos. Las organizaciones que actúen con ética y transparencia en el uso del Big Data serán bien vistas por la sociedad.

“Las organizaciones que actúen con ética y transparencia en el uso de los datos tendrán una valoración positiva de la sociedad. Y al contrario, quienes no se rijan por esos parámetros sufrirán una enorme pérdida en su reputación”, señala Eva García San Luis, socia responsable de Data & Analytics de KPMG. Y subraya que, “en la era digital, la confianza en una organización no se mide solo por su marca, líderes, valores o empleados. También, y cada vez más, por su forma de gobernar y gestionar los datos, los algoritmos, las máquinas…”.

Las empresas son cada día más conscientes –especialmente tras el escándalo de Facebook- de que la gestión de los datos puede tener un impacto en la imagen de la organización. Según una reciente encuesta de KPMG entre 2.190 directivos de diferentes partes del mundo, el 92% se muestra preocupado por el impacto que puede tener en la reputación corporativa la falta de confianza en la gestión que hace de los datos.

Los pilares sobre los que debe articularse esa confianza son calidad y precisión de los datos, seguridad y protección de los mismos e integridad en su uso. Sólo algunos de estos aspectos están regulados en el  Reglamento Europeo de Protección de Datos (RGPD), que entra en vigor en mayo y que regula, sobre todo, los dos primeros eslabones de la cadena: recolección (con autorización), gestión (con protección) y uso (con autorización acotada y pasa usos lícitos). Pero quedan sin resolver aspectos difusos que tendrá que atajar las compañías con un buen gobierno de los datos.  “Las organizaciones van tener que ir más allá del cumplimiento normativo para ganarse la confianza de unos consumidores que, por algunos casos de abusos y según qué tipo de información (datos), se muestran todavía recelosos. La clave es comunicación, honestidad y transparencia; explicarles cómo y para qué se utilizan sus datos y las ventajas que les reportan a ellos”, reflexiona Eva García San Luis.

De momento, las empresas no parecen estar poniendo mucho foco en la cuestión ética. La citada encuesta global de KPMG entre directivos de Data Analytics mostraba que solo el 13% de las compañías se declaraba excelente en términos de privacidad y ética en el uso de los datos, aunque en otros aspectos relacionados, como cumplimiento normativo, sacaban mejor nota. En el futuro, es probable que las compañías empiecen a crear comités o subcomités que traten la gestión ética de los datos. Los ciudadanos y el resto de stakeholders acabará imponiéndolo.

La complejidad no solo radica en resolver preguntas nada sencillas  – ¿Qué es un uso ético y lícito? ¿Y el bien común? ¿O los intereses legítimos?– , sino también en el hecho de que la casuística sobre lo que podríamos considerar un uso adecuado o aceptable de los datos varía mucho según culturas, tipología de los consumidores y de los datos (información) que se esté tratando, según refleja una reciente encuesta de KPMG a más de 7.000 consumidores en 24 países. Un ejemplo: en India, el 78% de los consumidores ve bien que los taxis utilicen datos de geolocalización para proponer rutas a los clientes, algo que en Dinamarca no gusta al mismo porcentaje.

Ya sea por motivos regulatorios, por el impacto mediático y social que tiene el saltarse la ética, por motivos reputacionales o por convicción, las compañías van tomando nota de la imperiosa necesidad de actuar con transparencia e integridad en un mundo gobernado por los datos. Obviar esta cuestión tiene un alto costo.

Añadir nuevo comentario