Polémica sexista en Apple por dar en sus tarjetas bancarias más crédito a los hombres que a las mujeres

Tras protestas de usuarios, las autoridades estadounidenses investigan si la aventura financiera del gigante tecnológico discrimina

Imagen de archivo EP

Esta funcionalidad es sólo para registrados

La mayor tecnológica de EE.UU., Apple , y uno de los principales bancos de Wall Street, Goldman Sachs, están en el disparadero por un producto financiero que lanzaron este año de forma conjunta y que, según sus críticos, discrimina a las mujeres . Varios emprendedores de EE.UU., incluido un peso pesado de Apple, pusieron el grito en el cielo después de comprobar que el algoritmo que rige la tarjeta de crédito Apple Card , que desembarcó este verano en el mercado, ofrece mucho peores condiciones financieras a sus esposas.

Todo comenzó este fin de semana, cuando un conocido emprendedor tecnológico, David Heinemer Hansson, atacó a la tarjeta de crédito. «Apple Card es un programa jodidamente sexista», arrancó su mensaje, el primero de una letanía de críticas que acabó por despertar el interés de las autoridades financieras. Hansson explicaba cómo él y su mujer comparten la declaración a Hacienda, tienen un sistema de bienes gananciales y llevan mucho tiempo casados. Sin embargo, la tarjeta le permite a él un límite de crédito veinte veces mayor que el de su esposa, además de otras condiciones perjudiciales, como la incapacidad de recuperar capacidad de crédito antes del vencimiento mensual mediante el pago de la cantidad debida.

La circunstancia era todavía más sorprendente, porque después de reparar en la desigualdad en su acceso a crédito con Apple Card, comprobaron que el «credit score» -una valoración independiente sobre el historial crediticio que utilizan los bancos en EE.UU. para conceder préstamos o tarjetas- era mejor en el caso de la esposa.

La única respuesta que los Hansson por parte de las compañías es que la decisión sobre las condiciones crediticias corresponden al otro gran protagonista de esta historia: el algoritmo. «No sé por qué, pero juro que no discriminamos », les dijo uno de los primeros representantes de Apple con los que hablaron. «Es solo el algoritmo». Es decir, la compleja función matemática que acumula los datos personales y financieros del solicitante y toma una decisión.

Esa respuesta enfureció todavía más a Hansson: «Así que nadie entiende el algoritmo . Nadie tiene el poder para examinar o controlar el algoritmo. Pero todo el mundo con quienes hemos hablado en Apple y Goldman Sachs no tiene prejuicios y no discrimina de ninguna forma. Ahí hay un nivel alto gestión de disonancia cognitiva».

Oleada de críticas

Los mensajes de Hannsson -que tiene cerca de 350.000 seguidores en Twitter y es uno de los fundadores del desarrollador de software Basecamp- provocaron una riada de críticas similares a Apple: otros usuarios traían experiencias similares, decisiones sorprendentes del logaritmo que daban a sus mujeres condiciones crediticias peores.

La experiencia más dolorosa para Apple la trajo Steve Wozniak, nada menos que el fundador, con Steve Jobs, de la compañía. «Lo mismo nos pasó a nosotros», reconoció en Twitter sobre él y su mujer. «A mí me dieron un límite de crédito diez veces mayor . No tenemos cuenta de banco separada, ni cuentas de tarjetas de crédito ni ningún activo separado. Muy difícil dar con un humano que lo corrija. Así es como son las grandes tecnológicas en 2019».

Después, en una entrevista en Bloomberg, Wozniak se metió en el fondo del asunto: el secretismo y oscuridad con los que operan en ocasiones los algoritmos que establecen las tecnológicas. «No tenemos transparencia sobre cómo estás compañías operan y deciden», dijo. «Los algoritmos claramente tienen defectos. Mucha gente dirá, "nos encanta la tecnología, pero ya no tenemos control". Y es lo que está sucediendo».

No es el primer episodio en el que se encienden las alarmas por prácticas discriminatorias relacionadas con el diseño de un algoritmo. Amazon tuvo que eliminar un sistema de contratación a través de inteligencia artificial porque penalizaba a cualquier solicitante que tuviera la palabra ‘mujer’ en su curriculum. También se han detectado prácticas perjudiciales frente a minorías raciales en los algoritmos que determinan la cobertura médica a la que pueden acceder los pacientes, como en una demanda contra la aseguradora UnitedHealthcare. Facebook fue demandado este mismo año por el Departamento de Vivienda y Desarrollo Urbano del Gobierno de EE.UU. por un sistema de anuncios comerciales sobre vivienda que discrimina los usuarios que ven esos mensajes.

Investigación oficial

De momento Apple no ha dado una respuesta oficial sobre el algoritmo y sobre si contiene diseños para discriminar a mujeres. Ha referido las preguntas a su socio financiero en la aventura de Apple Card, Goldman Sachs. Hansson aprovechó esta circunstancia para mandar otro recado al gigante de Cupertino, que promociona su tarjeta de crédito con la fórmula «creada por Apple», no por un banco’.

«Por favor, dejad de decir esa mierda de "esto es culpa de Goldman Sachs"», recriminó en Twitter. «La tarjeta se llama Apple Card y mandar a portavoces de Goldman Sachs para evitar la responsabilidad en el asunto es cobarde».

La reacción de Goldman Sachs fue detallar que cualquier solicitud de tarjeta «se evalúa de forma independiente . Miramos a los ingresos del individuo y a su situación crediticia, que puede incluir factores como el historial crediticios, la deuda que tienes y cómo ha sido gestionada. En función de esos factores, es posible que dos miembros de una familia reciban decisiones crediticias diferentes».

El comunicado se cierra negando prácticas discriminatorias: «En todos los casos, ni tomamos ni tomaremos decisiones basadas en factores como el género».

No lo tienen tan claro las autoridades. Tras la polémica en Twitter, el Departamento de Servicios Financieros de Nueva York (DFS, en sus siglas en inglés) ha iniciado una investigación de Apple Card para comprobar si su algoritmo es o no discriminatorio contra las mujeres. «Los algoritmos no tienen inmunidad» , dijo la superintendente del DFS, Linda Lacewell, en una entrevista con la cadena CNBC. «La persona o la compañía que usan el algoritmo son responsables de asegurarse de que no se usan con un impacto discriminatorio».

Los dueños del algoritmo, según Lacewell, tienen que asegurarse «en su aplicación, independientemente de su intención» tiene condiciones iguales para todos los consumidores.

La superintendente, al igual que ya había apuntado Wozniak anteriormente, aseguró que el problema de fondo es que estos algoritmos «son "cajas negras" para los consumidores y para los reguladores y los clientes tienen el derecho a saber de qué manera se toman esas decisiones».

Comentarios
0
Comparte esta noticia por correo electrónico

*Campos obligatorios

Algunos campos contienen errores

Tu mensaje se ha enviado con éxito

Reporta un error en esta noticia

*Campos obligatorios

Algunos campos contienen errores

Tu mensaje se ha enviado con éxito

Muchas gracias por tu participación