No início de maio, durante o auge das discussões sobre o projeto de lei (PL) que deseja coibir a divulgação de fake news nas redes sociais no Brasil, um outro projeto de lei foi protocolado no Senado. O PL 2338/23 ou simplesmente PL da Inteligência Artificial (IA) foi proposto pelo presidente da Casa, Rodrigo Pacheco (PSD-MG), depois de ter sido elaborado por uma comissão de 17 membros, entre juristas e especialistas em direito civil e digital.
Segundo o documento, a proposta de lei “estabelece normas gerais de caráter nacional para o desenvolvimento, implementação e uso responsável de sistemas de inteligência artificial (IA) no Brasil”, e tem como objetivo “proteger os direitos fundamentais e garantir a implementação de sistemas seguros e confiáveis, em benefício da pessoa humana, do regime democrático e do desenvolvimento científico e tecnológico”.
Segundo a proposta, o desenvolvimento, a implementação e o uso de sistemas de inteligência artificial no Brasil devem considerar a boa-fé e mais 12 princípios – entre eles, a participação e a supervisão humana no ciclo da inteligência artificial, a não discriminação, a transparência, a inteligibilidade e a auditabilidade.
“É preciso que haja um debate público”
“Sou absolutamente a favor da regulamentação”, diz Dora Kaufmann, professora do TIDD PUC – SP e autora dos livros A inteligência artificial irá suplantar a inteligência humana? e Desmistificando a inteligência artificial. “Veja bem, hoje nós temos dois países liderando a pesquisa, o desenvolvimento, a implementação e o uso da inteligência artificial: os Estados Unidos e a China. Nos EUA, esse processo está sendo realizado por cinco grandes empresas: Google, Apple, Microsoft, Meta e Amazon. Então essa concentração de mercado, inédita na história da humanidade, já é um problema por si só”, diz a pesquisadora.
Diante do poderio dessas empresas, fica mais difícil para o Estado regular e fiscalizar as aplicações de IA. “Não adianta nada você regular se não tiver como fiscalizar e, consequentemente, punir”, diz a especialista, para quem é inútil esperar que as big techs façam sua própria autorregulação. “Tudo que foi feito até agora em termos de autorregulação foram medidas ‘para inglês ver’, sem nenhum efeito prático. Então, o que resta de fato para proteger a sociedade e, ao mesmo tempo, preservar o ambiente? Resta a ação do Estado.”
Dora lembra, porém, que não se trata de um processo simples, e muito menos rápido. Em todo o mundo – com exceção da China, um país com características totalmente diferentes do Ocidente – , até hoje não foi implantada nenhuma regulamentação em relação à inteligência artificial. “A Comissão Europeia chegou perto, mas teve que rever tudo depois da chegada do ChatGPT. E a regulamentação continua sendo ajustada, por conta das emendas sugeridas a partir de consultas públicas.”
Pegando um exemplo brasileiro, foram necessários cinco anos para discutir e aprovar o Marco Legal da Internet. “Num ambiente democrático, não dá para ser diferente. É preciso de tempo para que os legisladores se familiarizarem com o objeto sobre o qual eles estão criando uma regulação. Não sei quanto tempo vai demorar. Mas o debate precisa ser público, e abranger diferentes setores da sociedade.”
Classificação por grau de risco
O projeto que está em discussão no Senado parte do princípio de que existe um risco sistêmico na aplicação da IA, com gradações entre baixo, moderado, alto e extremo. Com base nessa classificação, o texto apresenta propostas para prevenção, precaução e mitigação desses riscos. Entre as atividades consideradas de alto risco para aplicação da IA estão o recrutamento e a avaliação de profissionais, as aplicações na área de saúde e o sistema de identificação por biometria. São citados como exemplos de riscos à discriminação por raça ou orientação sexual na contratação de empregados, ou a utilização da identificação por reconhecimento para vigilância dos cidadãos.
Para Ana Carolina Cesar, head de Proteção de Dados e Propriedade Intelectual da KLA Advogados, a proposta de classificação de riscos trazida no PL faz sentido por considerar o impacto que a utilização da IA pode trazer para a vida do usuário. “Sempre que a gente falar em uma utilização que induza determinado comportamento, vai haver um risco”, diz. “Como o documento é de base pública, mesmo que o fornecedor apresente uma avaliação de risco menor, a sociedade vai conseguir se opor e entender o que está sendo avaliado”, afirma.
Na visão de Dora Kaufmann, o projeto não dialoga com a realidade brasileira e, por isso, assume uma forma muito abstrata. “A primeira coisa que você tem que fazer para regulamentar alguma coisa é entender os riscos reais. Então, é preciso entender como a IA está sendo usada no Brasil, e em que áreas. E daí determinar quais são os riscos potenciais. Mas isso tem que ser feito a partir da realidade, algo que o processo de regulamentação atual não está levando em conta.”
Penalizações para os infratores
Apesar de a proposta não prever sanções penais, o texto apresenta penalizações para fornecedores ou operadores do sistema de inteligência artificial, de acordo com o dano causado e com a categorização do risco proposto pelo documento. Nos casos envolvendo categorias que não são de alto risco, a culpa pelo dano é presumida, ou seja, cabe ao operador comprovar que não é culpado. Já nos casos em que a aplicação da IA seja de alto risco, a responsabilização do operador é objetiva, sendo ele considerado culpado de forma direta. As sanções envolvem medidas administrativas, como multa de até R$ 50 milhões para pessoas físicas ou de até 2% do faturamento da empresa, no caso de pessoa jurídica.
Para Dora Kaufmann, o nível de exigência das regras atuais é muito alto. “Eu acho que o custo para as empresas estarem em compliance é muito grande. Então, tenho medo de que, se aprovada, essa regulação se torne um desincentivo para que a tecnologia se desenvolva no país. Ou talvez as regras aumentem a concentração de mercado, porque só empresas maiores terão recursos para arcar com as providências necessárias.”
Para Luiz Lobo, fundador da startup de tecnologia digital Fintalk, especializada em soluções de Inteligência Artificial, o PL apresenta algumas fragilidades – entre elas, o entendimento sobre responsabilização dos agentes pelos possíveis danos causados pela IA. “Se o motor de uma ambulância falha, o fabricante responde pela morte do paciente? E se um documento escrito em Word incita a baderna, ou racismo ou ofensas, a Microsoft é corresponsável? No caso da IA é a mesma coisa. Há um limite para o dolo e para o controle que os criadores da tecnologia conseguem exercer”, afirma Lobo. Por isso mesmo, ele também é a favor de um debate mais amplo. “A gente pode e deve criar algum tipo de legislação, mas ela não deve ser definida exclusivamente pelos legisladores”, afirma.
Caminho até virar lei
É difícil prever quanto tempo levará até que seja aprovado um marco regulatório para a inteligência artificial no país. Antes de uma possível aprovação, o PL precisa percorrer algumas etapas. O projeto deve passar por uma avaliação pelas comissões internas do Senado e depois ser enviado para apreciação da Câmara dos Deputados. Se sofrer alguma alteração, ele volta para o Senado e, só então, pode ocorrer a aprovação ou não do texto, de acordo com o que for decidido pela maioria simples dos votos nas duas Casas. Somente após esse processo, o projeto pode ser enviado para o presidente da República para ser sancionado como lei. O presidente tem 15 dias para sancionar ou vetar a proposta.
Para Ana Carolina, a aprovação de uma lei como o PL da IA pode marcar uma era de maior segurança jurídica para empresas e usuários da tecnologia. “Essa regulamentação é fundamental tanto para garantir a segurança jurídica com relação aos operadores, como, principalmente, para os usuários, para garantir a observância dos direitos fundamentais que estão previstos na Constituição e nas demais legislações do Brasil”, afirma.
Pontos fundamentais dessa discussão ainda não foram sequer considerados, na opinião de Dora Kaufmann – para quem a aprovação de um marco da IA pode levar anos. “Uma das discussões mais importantes diz respeito à questão dos empregos. O fato é que as empresas, quando começam o processo de automação, precisam saber como lidar com os funcionários. Isso é política pública”, coloca.
Outro debate importante diz respeito aos prejuízos ao meio ambiente causados pela tecnologia. “Esses novos modelos de inteligência artificial dependem de um hardware robusto, que consome muita energia, e portanto gera muitas emissões. Hoje, os maiores centros de geração de CO2 do mundo são os datacenters. Então isso precisa ser levado em conta em uma regulamentação: será que as empresas não deveriam revelar o quanto de energia usam para criar um determinado sistema?”