Patentes da Uber utilizam algoritmos para classificar motoristas – Entenda a preocupação de especialistas

Entenda como saber se o motorista é ''perigoso'' ou não de acordo com as patentes registradas.

Com o crescimento da quantidade de motoristas de aplicativo, muitas pessoas têm questionado a segurança deste meio de transporte. Isto é, ora por não saber como o motorista dirige, ora por desconhecer a sua índole. Por isso, patentes da Uber, registradas desde 2019, buscam utilizar um sistema de pontuação algorítmica para definir se aquela pessoa dirigindo confere algum tipo de risco ao passageiro.

Entenda abaixo como esses algoritmos para classificar motoristas funciona.

Patentes de segurança da Uber utilizam algoritmos para classificar motoristas

Em uma das suas patentes, a Uber busca utilizar o algoritmo de inteligência artificial para interpretar a avaliação do usuário e classificar o motorista. Porém, comentários que sugerem “sotaque carregado”, como exemplo, podem ser interpretados pelo sistema como um serviço de “baixa qualidade”. 

Outra patente propõe prever se o motorista apresenta algum risco ao passageiro por meio de testes psicométricos. Isto é, classificar o motorista por meio da análise de suas redes sociais e relatórios policiais, de modo a evitar avaliações equivocadas dos usuários. 

Além dessas patentes, existem outras que pretendem monitorar o comportamento dos motoristas através de câmeras instaladas no veículo que medem seu nível de distração a partir de ações como: atender uma ligação, olhar um mapa ou mover o telefone. Até as preferências dos motoristas, como por exemplo, trabalhar a noite podem ser julgadas pelo aplicativo como menos seguras.

Em um depoimento para The Intercept, Jeremy Gillula, engenheiro de privacidade da Google e ex-diretor de projetos de tecnologia da Electronic Frontier, afirmou que utilizar algoritmos para determinar se o motorista será um perigo ou um problema é algo muito preocupante.

Assim como Jeremy, muitos especialistas demonstram sua preocupação com o sistema de algoritmo. Isso porque eles podem tanto reproduzir preconceitos dos passageiros, como também podem fazer avaliações equivocadas.

Gostou desse artigo? Você pode encontrar mais artigos como esse clicando aqui!

Você pode gostar também