Recentemente o aplicativo TikTok anunciou que estava abrindo
os seus algoritmos de classificação e compartilhamento de vídeos e desafiando
os seus concorrentes a fazerem o mesmo. A notícia causou impacto entre os
desenvolvedores de software, mas deixou perplexa a comunidade técnica,
científica e jurídica frente aos reflexos de tal anúncio.
Vivemos um cenário de sociedade de risco e de controle,
frente aos acordos realizados por estados totalitários e empresas de redes
sociais, serviços online, entre outros (FREITAS; PAMPLONA, 2017). Os dois
lados da balança, risco e controle, estão sobre um ponto central que é a
privacidade e a proteção de dados pessoais (BOFF et al., 2018) (BIONI, 2019).
Algoritmos são movidos por dados, dados geram informações sobre pessoas, que
por sua vez geram mais e mais dados.
Abrir os algoritmos significa explicitar a tão discutida
obscuridade dos algoritmos, pela qual não se tem conhecimento de como, por
exemplo, decisões automatizadas são estabelecidas. O tema é tão relevante, que
a Lei Geral de Proteção de Dados – LGPD (Lei No. 13.709/2018), no artigo 20,
aponta que é direito do titular de dados “solicitar a revisão de decisões
tomadas unicamente com base em tratamento automatizado de dados pessoais que
afetem seus interesses, incluídas as decisões destinadas a definir o seu perfil
pessoal, profissional, de consumo e de crédito ou os aspectos de sua personalidade”.
Aqui a LGPD aborda aspectos tecnológicos da aplicação de técnicas
de profiling (em português, perfilamento, caracterização de perfil ou
perfilagem) (FERRARIS et al., 2013). A caracterização de perfil refere-se aos
métodos e técnicas computacionais aplicados aos dados pessoais ou não dos
usuários visando o estabelecimento de um perfil. E, em tempos de Big
Data (KITCHIN, 2016), dados não faltam para serem processados.
As técnicas de caracterização de perfil têm como objetivo
determinar o que é relevante dentro de um determinado contexto, por exemplo, os
interessados em um determinado produto. Além disto, estas técnicas auxiliam na
representatividade estatística, ou seja, na determinação da qualidade de uma
amostra constituída de modo a corresponder à população no seio da qual ela é
escolhida. Ou seja, busca-se generalizar a partir de uma amostra de indivíduos
e dos seus respectivos interesses. Por exemplo, se um determinado grupo de
pessoas está interessado em um determinado produto, outros grupos de pessoas
ligados, conhecidos ou relacionados ao primeiro grupo também podem vir a se
interessar por este mesmo produto.
Entender o profiling não é uma tarefa trivial,
visto envolver diferentes aspectos tecnológicos e jurídicos, incluindo aspectos
legislativos que devem levar em consideração as características intrínsecas dos
sistemas computacionais frente a todas as possibilidades de tratamento de dados
pessoais ou não, sendo mais preocupante a questão dos dados pessoais e dos
dados sensíveis.
Pergunta-se, portanto: como explicitar a obscuridade dos
algoritmos? Primeiramente há que se entender o que é um algoritmo para em
seguida entender como os algoritmos funcionam.
Na Ciência da Computação, um algoritmo é uma sequência
finita de ações executáveis que visam obter uma solução para um determinado
tipo de problema. Algoritmos devem ser: precisos, não ambíguos, mecânicos,
eficientes e corretos. São formados por uma sequência de instruções,
raciocínios e/ou operações (de atribuição, aritméticas, lógicas, relacionais).
Na sociedade contemporânea, tudo se encaixa em algoritmos!
Desde relacionamentos (redes
sociais), e-commerce, m-s-t-f-commerce (mobile, social, televison,
Facebook) (FREITAS; BATISTA, 2015), internet banking, telefonia, TV, rádio,
música, arte, negócios e vida em tempos de pandemia (a exemplo do contact
tracing). Pode-se mencionar a sociedade de algoritmos. Há que se pensar em
ubiquidade, pervasividade, mobilidade, velocidade e, ainda, ter consciência que
se vive o paradigma denominado “everyware” (GREENFIELD, 2006).
Imagine um problema simples como: Testar se dois valores A e
B são iguais, apresentando, se SIM, “valores iguais” e se NÃO, “valores
diferentes”. Este simples problema necessita na verdade de operações de
atribuição (A conterá um valor numérico) e relacionais (precisamos comparar A e
B pela igualdade “=”). E, além disto, para que o algoritmo possa ser executado
em um computador, será necessário codificar o algoritmo em uma linguagem de
programação a escolha do desenvolvedor, por exemplo, Java.
Este pensamento, abstração, para solução de um problema
simples como o apresentado é, na verdade, aplicado a qualquer desenvolvimento
que envolva a solução de problemas por meio computacional. Se você achou
complicado, imagine entender os algoritmos de todos os software,
aplicativos e redes sociais que você utiliza. Há que se entender: Para qual
problema o algoritmo foi desenvovlido? Quais operações são realizadas?
(aritmética, lógica, relacional)? Quais dados são utilizados? Quais as relações
entre conjuntos de dados? E, portnato, há que se saber trabalhar com operações
de conjuntos (união, interseção, inclusão, diferença, complemento, exclusão,
pertencimento, contém/contido).
O desconhecimento sobre como os algoritmos funcionam pode
levar a: julgar mal o “poder” do algoritmo, enfatizar demais a sua importância,
pensar erroneamente que o algoritmo é um “agente” independente e isolado e,
finalmente, não perceber como o “poder” pode ser realmente implementado por
tecnologias e algoritmos.
É preciso compreender que os algoritmos operam sobre dados e
podem: ordenar, classificar, minerar, descobrir conhecimento, agrupar clientes,
estabelecer o perfil (profiling), conhecer gostos e preferências, conhecer qual
o comportamento na rede (behavourial tracking), rastrear contatos em tempos de
pandemia (contact tracing) (FREITAs et al., 2020), indicar produtos,
recomendar, reconhecer faces, reconhecer emoções, recuperar informações, tomar
decisões: aritméticas, lógicas, relacionais, estatísticas e probabilísticas.
Portanto, é importante que os titulares de dados (artigo 18, LGPD) compreendam
que os algoritmos mantém informações longe de nós por meio de bolhas
informacionais (PARISER, 2019). Além disto, podem ser aplicados em situações
subjetivas, mesmo que o titular de dados desconheça, a exemplo da contratação
de pessoas (Qual é o/a melhor candidato/a para a vaga?).
Problemas complexos não tem resposta binária (sim ou não),
por isso se entendermos que “Em oposição aos seres humanos, os computadores não
têm preferências nem atitudes. Se um modelo preditivo for corretamente
projetado, ele será imparcial e não conterá vieses.” (FREITAS; BARDDAL, 2019,
p. 111). Mas como os algoritmos podem conter vieses (biases)? Os algoritmos são
criados por seres humanos e podem assim ser igualmente tendenciosos a partir
das bases de dados utilizadas nas etapas de treinamento e validação de modelos
(matemáticos ou probabilísticos). Há que se lembrar que algoritmos andam de
mãos dadas com a complexidade.
Neste sentido, o legislador pontuou como importante que os
usuários precisam ser informados sobre os algoritmos de tomada de decisão
(artigo 20, LGPD). E, ainda, que caberá “ao controlador fornecer, sempre que
solicitadas, informações claras e adequadas a respeito dos critérios e dos
procedimentos utilizados para a decisão automatizada, observados os segredos
comercial e industrial” (§ 1º, artigo 20, LGPD) e no caso do não oferecimento
de tais informações justificado diante de segredo comercial e industrial, “a
autoridade nacional poderá realizar auditoria para verificação de aspectos
discriminatórios em tratamento automatizado de dados pessoais” (§ 2º, artigo
20, LGPD). A LGPD, tal qual outros regramentos sobre proteção de dados
pessoais, coloca no epicentro do debate a ética dos algoritmos e a formação de
uma cultura de dados centrada na proteção de dados (DONEDA, 2018), na segurança
da informação (família de normas ISO/IEC 27000), na privacidade e direitos
fundamentais. Sem esquecer que serão as pessoas que irão auditar os algoritmos.
Ou não? Teremos algoritmos auditando algoritmos? Mas esta é outra discussão.
Fonte: O Estado de São Paulo