Europa e Brasil buscam legislações que protejam dados usados pela IA

O Brasil e a União Europeia estão próximos em discussões sobre leis que promovam mais segurança ao usuário conforme a tecnologia avança em todo o mundo. A Lei Geral de Proteção de Dados (LGPD), por exemplo, foi inspirada na legislação europeia de proteção de dados pessoais. A regulamentação de Inteligência Artificial (IA) também se tornou protagonista em diversos países e, em dezembro do ano passado, um anteprojeto de lei foi apresentado nacionalmente – mas ao contrário do bloco europeu, o Brasil ainda parece atrasado na aplicação prática de leis específicas.

Para discutir os principais avanços e desafios da regulamentação, a FGV realizou o webinar “EU-Brazil Conference on AI Governance and Regulation”.

O debate foi iniciado com Maria Buzdugan, Ministra Conselheira para a Delegação da União Europeia de Mercado Digital no Brasil. Para ela todos têm medo da Inteligência Artificial, mas que mesmo com todo o seu poder, não deve ser temida. Entretanto, ser usada com sabedoria e dentro de nossa esfera.

“A IA só é boa conforme o uso dos dados. Mas e se os dados estiverem errados ou tendenciosos? A questão da confiança é, obviamente, ainda mais pertinente quando tenho que decidir se devo confiar na IA com uma importante decisão de saúde ou quando estou entrando em um carro autônomo”, pondera ela.

Além disso, há a questão do uso de responsável. Como um professor poderia saber se um aluno não fez uma tarefa na IA ou se uma música premiada pelo Grammy foi feita pela ferramenta – provoca Maria.

“Por isso, medidas de certificação incluindo iniciativas legislativas estão sendo discutidas nos Estados Unidos, no Brasil e em muitos outros países. A abordagem europeia é centrada na promoção da IA, mas centrada no ser humano, sendo sustentável, segura, inclusiva e confiável. A Comissão Europeia tem o duplo objetivo de criar um ecossistema de excelência e um ecossistema de confiança para promover o desenvolvimento e atualização da IA”, comenta a especialista.

Estratégia de IA

Ao abordar os riscos associados a certos usos dessa tecnologia até o momento, a União Europeia adotou uma estratégia de IA em abril de 2018. Esse plano foi revisado em 2021 e, mais recentemente, a UE está trabalhando em uma estrutura legal para IA.

Dentro dessas legislações, há quatro políticas principais de objetivos políticos. Para a IA na Europa, uma delas é estabelecer condições favoráveis para o desenvolvimento da IA e atualizar a UE. Tanto do ponto de vista político como também no que diz respeito à capacidade computacional crítica.

O segundo objetivo é trazer a excelência do laboratório para o mercado e fazer da União Europeia o lugar certo para desenvolver a tecnologia. Então, isso inclui financiamento e dimensionamento de ideias inovadoras.

O terceiro objetivo é garantir que as tecnologias de IA funcionem para as pessoas e os propósitos de talentos e habilidades e projetar uma estrutura política para garantir a confiança nos sistemas de IA. E, por fim, construir liderança estratégica em seus setores e alguns desses setores-chave.

Leia mais: IA e proteção de dados: ‘Estamos bebendo dessa água sem saber se tem veneno’

A Europa e o Brasil têm estratégias de IA com diferenciais iniciativas no campo da pesquisa, desenvolvimento e inovação, complementa Miriam Wimmer, diretora da ANPD. Ambos os países estão discutindo a aprovação de uma legislação abrangente para regular os usuários de IA e possuem leis abrangentes de proteção de dados baseadas em certos elementos comuns.

“A ideia de que o processamento de dados pessoais requer encontrar certas bases legais que legitimam permitem que esse processamento seja feito de maneira legal. E a ideia de que os titulares dos dados estão em contato com certos direitos em relação aos seus dados pessoais, o que é verdade na Europa e no Brasil, existe uma conexão clara entre IA e proteção de dados pessoais, visto que a IA é uma tecnologia que precisa da pessoa”, diz Miriam.

Nesse sentido, comenta a especialista, talvez um dos importantes desafios que temos pela frente tanto na Europa quanto no Brasil seja como harmonizar a legislação existente sobre proteção de dados pessoais e a futura legislação sobre IA. E como garantir também que o desenvolvimento tecnológico da IA leve em consideração a importância de proteger não apenas os dados pessoais, mas também outros direitos humanos fundamentais.

O porquê da regulamentação

Juha Heikkila, consultor internacional de Inteligência Artificial da Comissão Europeia, comenta que a IA consome grandes quantidades de dados e seu uso tem certas consequências pela dimensão do risco à segurança e aos direitos fundamentais, além de questões sobre a aplicação.

“[A tecnologia] pode criar insegurança jurídica, desconfiança e, do ponto de vista da União Europeia, que tem um mercado único, um erro de nível sindical. Existe o risco de fragmentação. Por esses motivos, achamos que precisamos regular a IA”, afirma.

Em resumo, para que todos os benefícios da IA se concretizem, é necessário possibilitar que ela aconteça de forma confiável. A abordagem europeia, comenta Juha, é baseada em risco. Para isso, é estabelecida uma pirâmide de hierarquia de riscos. No topo da pirâmide está um risco inaceitável. Isso inclui, por exemplo, pontuação social geral e manipulação suplementar, resultando em danos físicos e psicológicos.

No Brasil, analisa Laura Schertel Mendes, professora do IDP e diretora da CEDIS, em 2019 foram iniciados projetos de lei propostos. Após discussões nos últimos anos, o presidente do Senado decidiu instalar uma comissão de especialistas para discutir o assunto e propor um novo projeto de lei e, em dezembro do ano passado, foi criado um anteprojeto de regulamentação de IA.

“Um ponto interessante das audiências é a necessidade de uma estrutura de governança centralizada para garantir os direitos dos afetados de forma harmonizada e proporcionar segurança jurídica. Além disso, a ideia de que uma sociedade tão estruturalmente desigual quanto a brasileira precisa dar atenção especial ao potencial discriminatório dos sistemas de IA, derivado de vieses técnicos e sociais”, resume Laura.

Brasil atrás da Europa

Eduardo Magrani, professor da Universidade Católica Portuguesa, complementa ao dizer que o próximo passo é pensar no plano de implementação do projeto de lei. Considerando as diferenças entre o setor privado e o setor público, há grandes problemas de sínteses entre ambos os universos.

“O Brasil tem uma estratégia nacional de IA que é muito fraca. Agora, temos um forte projeto de lei, mas uma estratégia nacional fraca do governo. Como combinar ambas as iniciativas, tentando levar em conta cada consideração, é um desafio, ainda que o Brasil tenha sido pioneiro em diversas regulamentações, como a revisão do Marco e a declaração de direitos da Internet”, pondera ele.

Saiba mais: LGPD e reconhecimento facial: o lado mais polêmico da proteção de dados

Entre as questões na Europa, revela Andrea Renda, professor da European University Institute, é o fato de definir a IA de maneira ampla, não significa regular tudo. Dentro desse perímetro maior, é necessário localizar os aplicativos de alto risco e, dependendo de onde estão, terão que cumprir os requisitos regulatórios específicos.

“Mas, em minha opinião, é muito melhor adotar uma definição de IA muito ampla e neutra em tecnologia. A definição tende a ser tecnologicamente neutra. Mas o outro conjunto muito importante de explicações para isso é o fato de que você não deseja manter incentivos perversos para as pessoas que desenvolvem IA para talvez escolher uma técnica abaixo do ideal. Só porque eles não querem se enquadrar na lei de IA, por exemplo, não estarão sujeitos aos requisitos regulatórios”, alerta Andrea.

Ele também afirma que a falta de neutralidade é muito difícil. Será realmente impossível aplicar a regulamentação distinguindo quais partes realmente devem estar sujeitas à regulamentação, quais outras partes de um único modelo leigo devem estar sujeitas à regulamentação e esse é um exemplo de como a dificuldade aumenta.

O Brasil é um dos países da América Latina que mais usa redes sociais e serviços de IA. Mas, ao mesmo tempo, não é fácil de democratizar a informação sobre como essa tecnologia está se desenvolvendo, alerta Nina da Hora, pesquisadora na CTS-FGV. A IA, especificamente, tem um problema porque é preciso descontruir a mágica sobre como essa tecnologia é desenvolvida.

“O chatGPT, por exemplo, é uma tecnologia de IA que utilizar processos de linguagem natural. Esta é a parte do aprendizado de máquina, mas não são as antigas tecnologias de IA. Então, como regular esta parte? Na minha perspectiva, precisamos separá-lo das tecnologias oculares e reconhecimento de voz ou reconhecimento facial”, exemplifica a especialista.

Por fim, Claudio Villar, head de produtos, ciência de dados e supplu no Hostelworld Group, adverte sobre a importância de dialogar com a sociedade sobre os tipos de linguagem que eles não estão familiarizados. “As pessoas que atuam no país e os direitos civis precisam estar cientes. Então é necessário esse esforço de conscientizar a sociedade sobre os seus direitos. Quais são os riscos que eles estão sofrendo que às vezes não são percebidos por eles?”.

É preciso ter governança sobre como coletar os dados, com que brevidade eles estarão disponíveis para discutir com os usuários. Ao trabalhar com dados, por exemplo, empresas em que o profissional trabalhou já teve com lidar com a proibição de usar informações pessoais ou que os identificassem em recomendações.