A partir de um diálogo fanoniano, a frase “uma das formas de exercer autonomia é possuir um discurso sobre si mesmo. Discurso que se faz muito mais significativo quanto mais fundamentado no conhecimento concreto da realidade”, de Neusa Santos Souza, ganha ainda mais fôlego para evidenciar que o processo de reconhecimento e fortalecimento da identidade da população negra enquanto sujeitos de direitos e deveres é essencial para a desestruturação de um sistema de privilégios e perpassa, obrigatoriamente, o estabelecimento da atribuição de um conceito afrocentrado de sociedade da informação e seus impactos diante das novas tecnologias.
Na contramão estão as teorias políticas que regulam a relação entre política e ética, tendo no conceito de neutralidade, tomando-se por base a teoria pura do direito de Hans Kelsen, tendencia a não complexificação do direito sujeitando-o a uma série de regras formais e à simplificação da dimensão moral do direito e da justiça.
Assine a newsletter focada no serviço público Por Dentro da Máquina. Clique aqui para se inscrever gratuitamente e receber as próximas edições
Por isso, o binômio direito da personalidade versus novas tecnologias urge-se defronte a este cenário, no cumprimento de uma autodeterminação informacional, por meio da qual se reconhece que cada indivíduo deve ter o direito de controlar suas próprias informações pessoais e de escolher como essas informações são utilizadas. No Brasil, a autodeterminação informativa, influenciada pelo direito alemão, tem como base a garantia constitucional das liberdades individuais e está prevista no artigo 2º, II, da Lei Geral de Proteção de Dados Pessoais (LGPD).
Com efeito, o direto à personalidade, na forma posta por Maria Helena Diniz, “direito da pessoa de defender o que lhe é próprio”, além de protegerem a vida, identidade, liberdade, imagem, privacidade e honra, são responsáveis pela proteção da dignidade humana por meio da positivação dos direitos humanos.
Considerando que os dados pessoais têm vínculo objetivo com o titular dos dados, revelando informações como preferências, características ou ações especificas da pessoa, seu nome, domicílio, suas ações, manifestações, opiniões, dentre outros, tem-se por objeto da informação a própria pessoa, razão pela qual Pierre Catala afirma que em tal contexto, os dados pessoais são atributos da personalidade. A partir dessa análise, apresentamos o conceito de “corpo eletrônico”, de Stéfano Rodotá, o qual descreve um novo aspecto da pessoa natural digital. Desta forma, é totalmente possível aproximarmos das tutelas dos direitos da personalidade do corpo físico aos elementos digitais, buscando consolidar a promoção integral do livre desenvolvimento da pessoa humana.
As comunidades virtuais refletem a sociedade do mundo físico, o que implica na proliferação de sensores de coleta de dados, incluindo os que podem ser incorporados ao corpo humano, e na capacidade massiva de processamento habilitada pela inteligência artificial. Isso envolve conceitos como big data, que descreve conjuntos de dados vastos e complexos, e machine learning, técnica de inteligência artificial que permite a aprendizagem e adaptação de sistemas a partir de dados, sem programação explícita.
Neste cenário, afirma-se que algoritmos de IA são construídos a partir de entradas amostrais e envolvem muitas etapas manuais, desde a coleta de dados até a análise do problema a ser solucionado, portanto, a presença humana é significativa em todas essas etapas[1]. No entanto, em determinadas etapas da coleta e da predição, o ML se utiliza de tipos distintos de abordagens com algoritmos, que para fins deste artigo destacaremos a rede neural — modelo computacional inspirado na estrutura e funcionamento do cérebro humano, que busca simular o processamento de informações por meio de um conjunto de unidades de processamento interconectadas, chamadas de neurônios artificiais.
Para Cathy O’Neil, em sua obra “Algoritmos de Destruição Matemática”, os modelos matemáticos não são absolutamente objetivos ou verdadeiros, como supostamente se acredita em relação aos algoritmos. Para ela, os modelos são opiniões embutidas na matemática, sendo apenas representações abstratas de processos. Eles coletam informações sobre um tema específico e os utilizam para prever respostas em várias situações, seja dentro de um computador ou em nossa mente, influenciando nossas expectativas e decisões, o que corrobora com a afirmação de que a neutralidade absoluta não existe.
Nesse sentido, a “Sociedade Pós-Industrial”, conceito desenvolvido por Alain Touraine e Daniel Bell, é influenciada pelos avanços tecnológicos e coloca a informação como central na sociedade contemporânea, dando origem ao conceito embrionário de “sociedade da informação”. Esse novo modelo de sociedade surge devido ao desenvolvimento socioeconômico e cultural impulsionado pela globalização, resultando em uma economia baseada em uma rede global interconectada que engloba finanças, economia, comunicação, poder, ciência e tecnologia. Manuel Castells a descreve como uma sociedade informacional, global e em rede.
Por outro lado, é possível perceber que o binômio conectividade-coletividade não alcançou a população negra do Brasil. Apesar de representarem 56,2% da nação, apenas 29,9% ocupam cargos gerenciais e 45,3% ocupam cargos de menor remuneração. Ressalta-se que a taxa de analfabetismo que é de 20,7%, o que equivale ao dobro se comparado a pessoas brancas, a baixa representação política, 24,4%, e grande parcela, formada por 32,9% detém rendimento mensal domiciliar per capita abaixo da linha da pobreza.
No entanto, é importante reconhecer que a tecnologia também pode ser usada para perpetuar preconceitos e discriminação, levando a práticas de supervigilância, exclusão e discriminação. O termo Black Opticon se refere ao uso de tecnologia de vigilância para controle social e racial, o que é uma realidade no Brasil, especialmente para população negra que vive em comunidades pobres e periféricas. A vigilância tecnológica tem sido usada para justificar e legitimar ações violentas contra essa população.
A intensa conectividade global e o uso crescente de IA têm levado à construção e perpetuação de hierarquias raciais no ambiente digital, através de algoritmos em sistemas corporativos e governamentais, que podem produzir o fenômeno conhecido como “Racismo Algorítmico”, termo cunhado por Tarcísio Silva. Para promover a justiça algorítmica, é crucial considerar a igualdade racial no desenvolvimento de algoritmos, o que envolve diversidade e inclusão para incorporar perspectivas de minorias e grupos subrepresentados nos bancos de dados. A transparência e responsabilidade das empresas de tecnologia são igualmente vitais, garantindo que os dados usados para treinar algoritmos sejam livres de vieses e discriminação.
Embora o Estado tenha adotado leis para proteger os indivíduos do uso inadequado de dados pessoais e informações, como a Lei Geral de Proteção de Dados e outras legislações setoriais[2], a promoção do livre desenvolvimento da personalidade da população negra não é apenas uma questão de conformidade legal, mas uma questão de justiça social e equidade, especialmente em um contexto hiperconectado, onde o racismo muitas vezes é invisível e permeia o tecido social, inclusive no ambiente digital.
O desafio da preservação dos direitos da personalidade da população negra frente às novas tecnologias passa pela valorização de sua própria história e potencialidades. Isso envolve enfrentar o mito da neutralidade, a positivação de direitos individuais relacionados ao controle dos processos de coleta e tratamento de dados pessoais, afirmação da identidade virtual / digital por meio de acesso à internet de qualidade. Para abordar essas questões, são necessárias iniciativas regulatórias e políticas públicas que assegurem a proteção dos direitos fundamentais, promovam a transparência, evitem invasões de dados pessoais e orientem as empresas desenvolvedoras de tecnologias de forma ética e legal, protegendo os direitos de toda a sociedade.
__________________________________________________________
[1] O’NEIL, Cathy. Weapons of math destruction. How big data increases inequality and threatens democracy. New York: Broadway Books, 2017.
[2] Lei Geral de Proteção de Dados (Lei 13.709/18) e outras leis setoriais, como a Lei de Acesso à Informação (Lei 12.527/11), o Marco Civil da Internet (Lei 12.965/14) e a Lei do Cadastro Positivo (Lei 12.414/11)3 e os Projetos de Lei nºs 5.051, de 2019, 21, de 2020 e 872, de 2021.