Cart√£o da Apple acusado de sexismo contra mulheres

cart√£o

Uma investigação foi iniciada pelas autoridades financeiras dos EUA sobre relatos de que o cartão de crédito da Apple concede limites de crédito diferentes para homens e mulheres.

Mais especificamente, acredita-se que os algoritmos que estabelecem esses limites possam ter sido construídos para serem mais tendenciosos para as mulheres. As autoridades entraram em contato com a Goldman Sachs, que gerencia o cartão da Apple.

Qualquer discrimina√ß√£o, intencional ou n√£o, “viola a lei de Nova York”, afirmou o DFS (Departamento de Servi√ßos Financeiros).

De acordo com a agência de notícias Bloomberg, o tecnólogo David Heinemeier Hansson reclamou que seu cartão da Apple lhe dava 20 vezes mais do que o limite de crédito que dava à esposa, apesar de ter uma pontuação de crédito melhor.

Mais tarde, o co-fundador da Apple, Wozniak, disse que a mesma coisa aconteceu com sua esposa, apesar de eles n√£o terem contas banc√°rias ou ativos separados.

“Viola√ß√£o legal”

No entanto, este n√£o parece ser o √ļnico caso de discrimina√ß√£o no mundo da tecnologia. Segundo Hansson, criador da ferramenta de programa√ß√£o Ruby on Rails, os algoritmos podem discriminar.

O grupo de sa√ļde dos EUA, UnitedHealth Group, tamb√©m est√° investigando alega√ß√Ķes de que um algoritmo favoreceu pacientes brancos em vez de negros.

Hansson descreveu o cartão de crédito da Apple como um programa sexista, em um tweet, e disse que, assim que levantou a questão, o limite de crédito de sua esposa aumentou.

O DFS disse que “conduziria uma investiga√ß√£o para determinar se a lei de Nova York foi violada e para garantir que todos os consumidores sejam tratados igualmente, independentemente do sexo”.

“Qualquer algoritmo que intencional ou involuntariamente leve a tratamento discriminat√≥rio de mulheres ou qualquer outra classe protegida viola a lei de Nova York.”

No s√°bado, o banco de investimentos disse √† Bloomberg: “Nossas decis√Ķes de cr√©dito s√£o baseadas na confiabilidade do cliente e n√£o em fatores como sexo, ra√ßa, idade, orienta√ß√£o sexual ou qualquer outra discrimina√ß√£o proibida por lei”.

Ninguém tem certeza ainda do que realmente está acontecendo. No entanto, há uma suspeita de que um preconceito não intencional tenha entrado no sistema.

Isso pode ser devido ao fato de que, quando os algoritmos foram desenvolvidos, eles foram treinados em um conjunto de dados em que as mulheres realmente representavam um risco financeiro maior do que os homens. Isso poderia forçar o software a oferecer limites mais baixos de crédito para as mulheres em geral, mesmo que o caso em que se baseia não se aplique à população em geral.

Como alternativa, o problema pode estar nos dados agora fornecidos nos algoritmos. Por exemplo, em casais, √© mais prov√°vel que os homens fa√ßam grandes empr√©stimos usando seu nome apenas do que o fizeram com seus c√īnjuges e os dados podem n√£o ter sido ajustados para levar isso em considera√ß√£o.