[English below]

O recente caso da Meta e a coleta de imagens em suas plataformas para treinar seus modelos de IA generativa reforçou a relação intrínseca entre proteção de dados e sistemas de inteligência artificial.

Foi sobre essa discussão, e especificamente sobre os desafios ao consentimento explícito do titular de dados frente a essas tecnologias generativas, que debatemos no painel construído por mim e pela Rafaela Ferreira no 14º Fórum da Internet no Brasil, intitulado Diálogo entre LGPD e regulação de IA: desafios ao consentimento explícito em IAs generativas. Com participação de representantes de diferentes setores, inclusive a ANPD, pudemos conversar sobre questões próximas ao cenário que a Autoridade tem de enfrentar agora, com a determinação de uma medida cautelar para que a Meta suspenda o tratamento de dados pessoais para treinamento da sua IA.

Dentre as perguntas que nortearam a nossa proposta ao FIB estavam: é possível afirmar que tudo o que está público na internet prescinde de consentimento específico para utilização? Apenas marcar uma checkbox de aceitação dos termos é o suficiente para declarar consentimento de forma explícita em relação a todos os dados, prazos e formas de tratamento que podem estar previstos? Quais desafios relacionados ao consentimento em sistemas de IA direcionados a crianças e adolescentes? Quais as intersecções necessárias entre a LGPD e o Marco Regulatório de IA?

Na minha fala, pude destacar o papel que a opacidade gerada pelo discurso tecnosolucionista coloca sobre o âmago da questão. A tecnologia pautada com um fim em si mesmo e o evangelismo tecnológico, termo utilizado pela pesquisadora Abeba Birhane, naturaliza o extrativismo de dados sob o pretexto de melhorar a perfomance da tecnologia. Na pesquisa que realizei como fellow do programa Líderes LACNIC, em 2023, o entrevistado Tarcizio Silva pontuou que o lançamento de IAs generativas no mercado observou uma tentativa de “normalização de infração a consensos legais e morais sobre o manejo da cultura e da mídia” e “da tecnologia através do aparente benefício e da aparente acessibilidade […] nessa primeira fase”.

O problema é que a escalabilidade de bases de dados é associada de forma falaciosa ao discurso da inovação e à melhor perfomance de modelos de aprendizado. Essa é a conclusão de uma pesquisa de Birhane, Han e Boddeti, de 2023, que afirmam também que a escala tende a aumentar conteúdos com discurso de ódio e classificações desumanizantes, em especial para pessoas negras. Assim, não bastam grandes conjuntos de dados para melhorar um sistema, mas uma avaliação, auditoria, curadoria e gerenciamento rigorosos sobre os dados.

Ocorre que o público em geral não é avisado dessas informações. Essa opacidade em torno da tecnologia não permite que as pessoas consigam dimensionar como seus dados podem ser utilizados e tratados e para quais fins. Quando se olha para comunidades vulnerabilizados e grupos minoritários, como pessoas negras, quilimbolas, indígenas, dentre outras, como é possível assegurar que elas sejam suficientemente informadas para dar o seu consentimento frente a essas plataformas, tanto sob a perspectiva da utilização como enquanto fonte desses dados?

A última versão do Projeto de Lei 2.338/2023, destinado a regular a IA no país, apresenta uma definição específica para IA generativa, além de prever uma seção com medidas de governança específica para esse tipo de tecnologia. O reconhecimento do impacto diferenciado da IA generativa vem em boa hora e já apresenta uma interligação com a LGPD, como a previsão da necessidade de que as bases de dados desses sistemas sejam treinadas de acordo com a referida norma. Ainda há muito o que avançar, mas a busca por uma regulação baseada em direitos e riscos se firma cada vez mais como o caminho praticamente obrigatório para que cidadãos e cidadãs possam fazer frente a grandes empresas de tecnologia em defesa de seus direitos.


[English]

The advancement of generative AI reinforces the need for a connection between data protection and AI regulation.

The recent case of Meta and the collection of images on its platforms to train its generative AI models has reinforced the intrinsic relationship between data protection and artificial intelligence systems.

It was on this discussion, specifically about the challenges of obtaining explicit consent from data subjects in the face of these generative technologies, that we debated in the panel created by me and Rafaela Ferreira at the 14th Internet Forum in Brazil, entitled Dialogue between LGPD and AI Regulation: Challenges to Explicit Consent in Generative AI. With the participation of representatives from different sectors, including the ANPD, we were able to discuss issues related to the scenario that the Authority has to face now, with the determination of a precautionary measure for Meta to suspend the processing of personal data for training its AI.

Among the questions that guided our proposal to the FIB were: Is it possible to say that everything that is public on the internet does not require specific consent for use? Is simply checking a checkbox to accept the terms enough to declare explicit consent regarding all the data, timelines, and forms of processing that may be provided? What challenges are related to obtaining consent in AI systems aimed at children and adolescents? What are the necessary intersections between the LGPD and the AI Regulatory Framework?

In my speech, I was able to highlight the role that the opacity generated by techno-solutionist discourse places on the heart of the matter. Technology aimed at being an end in itself and technological evangelism, a term used by researcher Abeba Birhane, naturalizes data extraction under the pretext of improving technological performance. In the research I conducted as a fellow of the LACNIC Leaders program in 2023, the interviewee Tarcizio Silva pointed out that the launch of generative AIs on the market observed an attempt to “normalize violations of legal and moral consensuses about the handling of culture and media” and “technology through apparent benefit and apparent accessibility […] in this first phase.”

The problem is that the scalability of databases is fallaciously associated with the discourse of innovation and better performance of learning models. This is the conclusion of a 2023 study by Birhane, Han, and Boddeti, which also states that scale tends to increase content with hate speech and dehumanizing classifications, especially for black people. Thus, large data sets alone are not enough to improve a system, but rather rigorous evaluation, auditing, curation, and management of the data.

The general public is not informed of this information. This opacity surrounding the technology does not allow people to understand how their data can be used and processed and for what purposes. When looking at vulnerable communities and minority groups, such as black people, quilombolas, indigenous people, among others, how can it be ensured that they are sufficiently informed to give their consent to these platforms, both from the perspective of use and as a source of these data?

The latest version of Bill 2.338/2023, aimed at regulating AI in the country, presents a specific definition for generative AI, as well as a section with specific governance measures for this type of technology. The recognition of the differentiated impact of generative AI comes at a good time and already presents an interconnection with the LGPD, such as the provision that the databases of these systems be trained in accordance with the said regulation. There is still much to advance, but the search for a regulation based on rights and risks is increasingly established as the practically mandatory path for citizens to confront large technology companies in defense of their rights.

Deixe um comentário

Tendência