Uso massivo de dados no setor de seguros pode potencializar viés discriminatório e violar direitos individuais

Tese de doutorado do advogado Thiago Junqueira analisa o impacto da introdução da inteligência artificial em mecanismos decisórios, com foco no mercado de seguros

Com a promessa de oferecer uma precificação individualizada das apólices, as seguradoras estão expandindo o acesso a dados pessoais dos segurados, elevando o risco de violação da privacidade e da perpetuação de viés discriminatório nos processos decisórios. É o que afirma o advogado Thiago Junqueira, sócio do escritório Chalfin, Goldberg & Vainboim Advogados e professor do ICDS, em seu livro Tratamento de Dados Pessoais e Discriminação Algorítmica nos Seguros, resultado de sua tese de doutorado defendida na UERJ e publicada pela Revista dos Tribunais.

Publicidade

O especialista analisa as transformações no mercado de seguros, com foco na expressiva adesão ao uso de dados e à inteligência artificial na estruturação do negócio. Em vez do “prêmio fixo”, determinado por cálculos atuariais antes da contratação, o valor da apólice está, cada vez mais, baseando-se no acompanhamento dos “riscos” do segurado, calculados e definidos por algoritmos.

Para seguros de automóveis, os produtos pay as you drive ou pay how you drive ( “pague conforme você usa” e “pague como você dirige”) tiveram forte crescimento no Brasil, especialmente no período da pandemia (de até 200%), ante o recuo nos contratos tradicionais (que chegou a alcançar o número de 60%). Para estes produtos, os smartphones têm servido como ferramentas poderosas para a captura de dados. Em ambas modalidades são inúmeros os benefícios, como produtos mais acessíveis e adequados ao perfil dos segurados, contudo, não podem ser menosprezados possíveis danos causados aos consumidores.

Embora o uso do Big Data e da Inteligência Artificial no setor de seguros traga muitos benefícios, inclusive para os consumidores e aponte para decisões mais consistentes e justas , prevenindo fraudes e outras condutas de má-fé dos segurados, o novo sistema não elimina a possibilidade de haver discriminação indireta (não intencional) a determinados perfis nos contratos. “O algoritmo aprende por repetição. Mesmo não sendo desenhado com a intenção de discriminar, ele reproduz preferencias sociais de forma racional e, se não forem tomadas salvaguardas, necessárias irá repetir e perpetuar formas de discriminação”, analisa o professor. “O uso de dados para a precificação dos seguros poderia levar ainda a uma devassa nas informações pessoais do segurado, colocando em xeque seu direito à privacidade, à igualdade, à liberdade de expressão, à liberdade de associação e à identidade pessoal”, alerta.

Publicidade

Em seu livro, Thiago Junqueira demonstra que o titular dos dados tem, na realidade, um controle apenas parcial sobre a fonte de informações utilizada para a tomada de decisão pelos seguradores. A permissão de acesso a dados, como a localização, por exemplo, leva o segurador a formar um perfil bastante sofisticado do segurado, que pode abranger o hábito de frequentar a academia de ginástica, comer em redes fast-food, ir constantemente a farmácias, tabacarias, bares ou casas noturnas, por exemplo. “Caso os seguros realmente marchem para um robusto tratamento de dados pessoais, a maioria das apólices passará a exigir amplo acesso aos dados dos segurados e consequências ainda não devidamente mapeadas poderão ocorrer”, afirma. De acordo com o professor, pode-se vislumbrar o potencial de expansão do uso de novos dados “comportamentais” coletados “indiretamente”, como as atividades on-line do proponente (buscas e compras em sites da internet e utilização de redes sociais), dados oriundos de wearables e telemetria (os aplicativos de celulares ou aparelhos que controlam desde os passos do indivíduo até a forma de direção do veículo), dados financeiros provenientes do uso de cartão de crédito, entre outros.

O que fazer

No mundo digital, os dados pessoais tornaram-se cruciais para as empresas direcionarem seus negócios e aumentarem os lucros. Em seu estudo, Junqueira alerta que uma parte considerável das empresas ainda descuida das implicações sociais e éticas que o uso destes dados pode gerar. A Lei Geral de Proteção de Dados Pessoais, embora oferecendo instrumentos capazes de contribuir para o combate à discriminação, mostra-se, em geral, insuficiente, sobretudo no que se refere ao problema da discriminação indireta.

O advogado, contudo, aponta que as possibilidades de controle na inteligência artificial são expressivas. “As empresas podem auditar os resultados de seus algoritmos. E quem foi alvo de uma discriminação também tem direito a uma explicação sobre a decisão automatizada”. Para o professor, no entanto, é mandatória uma mudança cultural e regulatória no país: “A indiferença para a realidade social e os riscos envoltos na tomada de decisões automatizadas devem ser rapidamente alterados. É preciso haver um treinamento de ética e um investimento em diversidade nas seguradoras”, conclui.

Artigos Relacionados