*com colaboração de Luca Belli
O Centro de Tecnologia e Sociedade da FGV organizou a primeira Conferência Latino-americana sobre Inteligência Artificial e Proteção de Dados para entender quais são as prioridades desse assunto tão críticos para nossa sociedade.
Parlamentos e reguladores ao redor do mundo estão considerando como regular algoritmos e inteligência artificial. Recentemente, a Câmara dos Deputados votou o Projeto de lei 21/2020 que cria o Marco Regulatório da Inteligência Artificial (IA), a União Europeia bem como a China apresentaram as próprias propostas de regulação sobre IA, e o Conselho da Europa está planejando a discussão de um tratado sobre IA e Direitos Humanos e organizará uma ampla conferência, no dia 26 de outubro, sobre o assunto.
Apesar das abordagens serem bastante diferentes, existe um consenso sobre a necessidade de regular a IA e definir um sistema apropriado de governança, porque alguns tipos de IA apresentam riscos particularmente nefastos. Não somente ao nível social, como a manipulação de nossos processos democráticos, nossas economias, e nossa segurança nacional, mas também ao nível individual.
Os nossos dados pessoais representam a matéria prima graças a qual é desenvolvida e aperfeiçoada a IA. Neste sentido, a proteção de dados dos indivíduos precisa ser uma preocupação central de qualquer sistema de governança da IA, porque uma falta de proteção pode determinar consequências particularmente nefastas.
Os diferentes usos de dados biométricos por exemplo, são capazes de identificar, seguir, destacar individualmente e rastrear pessoas em todos os lugares, embora alguns aplicativos que usam biometria alegam que são usados para segurança digital, isto é complexo pois estão implementando estas tecnologias sem pensar nos potenciais riscos e impactos negativos de longo prazo na sociedade.
Um exemplo recente no Brasil aconteceu em Salvador, onde o assistente administrativo Davi foi perseguido na estação Lapa do metrô por câmeras com reconhecimento facial e subsequentemente preso por policiais. As câmeras da estação encontraram similaridades do seu rosto com o de um foragido procurado pela Justiça. O caso foi abordado recentemente em reportagem realizada pelo Intercept Brasil, destacando que o Davi foi identificado erroneamente pelas tecnologias de reconhecimento facial adotadas pela polícia.
O uso de reconhecimento facial para segurança pública é um exemplo notável de como as consequências de falsos positivos e falsos negativos na análise de dados possam impactar diretamente o indivíduo. Felizmente, o Davi foi liberado depois de identificado pelos policiais. Não sempre, as vítimas de tais “erros” têm a mesma sorte.
Por outro lado, entende-se que no mundo cada vez mais conectado, algoritmos e tecnologias digitais se tornam cada vez mais presentes para processar grandes volumes de informações por milésimos de segundos. A questão, portanto, é entender se a automatização por meio de algoritmos e IA seja verdadeiramente uma solução para resolver nossos problemas.
A Conferência Latino-americana sobre IA ofereceu muitas abordagens críticas, pistas para pesquisa, cooperação e propostas de regulação, mas ao mesmo tempo deixou muito claro que precisamos enfrentar um desafio triplo.
Primeiramente, um paradoxo: precisamos de tempo para entender a IA e como regulá-la, mas necessitamos também agir rapidamente.
Tempo e debate são essenciais para nos alinhar e concordar alguns pontos bastante fundamentais como, por exemplo, o que é a IA e quais técnicas de regulação ou modelos de governança são mais eficientes para enquadrar o que consideramos como IA?
A enorme diversidade do fenômeno que queremos regular não permite identificar claramente, rapidamente e de maneira consensual quais são os problemas e quais as soluções.
Ao mesmo tempo, se queremos elaborar um sistema de regulação e governança que consiga moldar de maneira eficiente a evolução da IA, antes que seja a IA – e especialmente as empresas que definem o funcionamento da IA – a moldar nossas sociedades, precisamos agir com uma certa rapidez.
O segundo desafio crucial é a necessidade de definir um sistema de regulação e de governança que sejam eficientes e sustentáveis. Este desafio é simplesmente enorme. Precisamos criar a maior proteção possível pelos indivíduos, mas também pela sociedade de maneira coletiva e inclusiva, clara, previsível e capaz de se adaptar a evolução tecnológica.
Ao mesmo tempo, precisamos estimular a inovação, a pesquisa e os investimento na IA, sobretudo naquelas tecnologias que consideramos socialmente desejáveis. Paralelamente, precisamos estimular confiança e evitar um fenômeno de suspeição, ou até temor, da IA.
Este desafio é extremamente complexo, considerando que o mercado já está desenvolvendo aplicações e “soluções” algorítmicas muito mais rapidamente, não somente dos demais processos legislativos, mas também da possibilidade de os legisladores e as sociedades conseguirem uma compreensão básica de um assunto extremamente complexo e crucial como a IA.
Enfim, não esquecemos que existe um terceiro desafio essencial. Como estimular inovação e pesquisa numa estação de cortes orçamentários radicais?
A melhor maneira para estimular um progresso sustentável na IA é financiar inovação e pesquisa. Suportar os inovadores e os pesquisadores. Apoiar – não somente com palavras, mas também com orçamentos dedicados – as pessoas, os centros de pesquisa e as empresas que podem desencadear o verdadeiro potencial da IA pela sociedade.
Os cortes aos orçamentos de pesquisa anunciados nas últimas semanas são particularmente assustadores neste sentido. Mesmo adotando o melhor Marco Regulatório da Inteligência Artificial possível, nos parece extremamente difícil estimular inovação socialmente desejável, se a sociedade não conseguir suportar a inovação.
Luca Belli PhD, é professor da FGV Direito Rio e coordenador do Centro de Tecnologia e Sociedade da FGV
Nina da Hora – Cientista da computação PUCRio, Pesquisadora no Centro de Tecnologia e Sociedade da FGV, HackerAntirracista