
Por Pedro Brasileiro* — Falar que a inteligência artificial (IA) está mudando o mundo dos negócios é chover no molhado - ela já mudou. Basta analisar alguns números: a McKinsey estima que, sozinha, a funcionalidade generativa da tecnologia possa adicionar entre US$ 2,6 e US$ 4,4 trilhões à economia global a cada ano, com impactos relevantes em setores, como marketing, vendas, desenvolvimento de softwares e pesquisa e desenvolvimento. A IDC, por sua vez, aponta o Brasil como líder nos investimentos em infraestrutura de IA na América Latina, sendo responsável por 38% do mercado regional e com um gasto estimado, em 2024, de US$ 240 milhões. No fim do ano, a chegada dos agentes de IA deu ainda mais força ao movimento. Capazes de executar tarefas complexas de forma autônoma e interativa, eles despontaram como ferramentas estratégicas para inovar nas empresas — e também no setor público, que historicamente é pressionado a entregar mais resultados com menos recursos.
A tecnologia também está na pauta do governo brasileiro, que apresentou uma proposta de investimento de R$ 23 bilhões até 2028, com foco em usos sustentáveis e voltados para a sociedade. Essa revolução da IA, contudo, não chega sem a necessidade de uma regulamentação robusta — as principais potências globais já estão, não por acaso, debatendo soluções e propondo novos arcabouços regulatórios. O mais marcante é o AI Act, publicado em julho de 2024 pela União Europeia, que tem como uma de suas características principais a categorização de riscos dos sistemas de IA e a definição de requisitos para cada um deles. Aplicações classificadas como de "alto risco", como as de reconhecimento facial ou de tomada de decisão em áreas sensíveis, estarão sujeitas a regras mais rigorosas.
Enquanto isso, no Brasil, diferentes projetos de lei tramitam no Congresso Nacional. O mais adiantado deles é o 2.338, já aprovado no Senado Federal e que aguarda análise da Câmara dos Deputados. Conhecido como Marco Legal da Inteligência Artificial, o projeto é fortemente inspirado no AI Act da União Europeia. Ele propõe uma abordagem abrangente para a governança da tecnologia, ao definir princípios éticos, estabelecer requisitos para setores específicos e adotar uma abordagem baseada na gestão de riscos. Além disso, traz propostas para proteger a privacidade dos dados e fomentar a pesquisa e o desenvolvimento em IA.
Como o texto europeu, o PL também prevê a criação de um sandbox regulatório — uma espécie de ambiente experimental controlado, onde empresas possam desenvolver projetos com condições especiais e menos exigências para testar inovações. No entanto, embora também contenha uma abordagem baseada nos riscos, a proposta brasileira ainda deixa a desejar em relação ao AI Act.
O primeiro ponto — e talvez o mais elementar — é que o PL precisa diferenciar claramente a IA de uso geral das aplicações corporativas. No contexto das empresas, a IA tem um uso muito mais controlado, com uma governança de dados mais rígida (como é o caso das ferramentas de CRM ou de produtividade). Os riscos são bem menores — embora, é claro, existam.
Isso difere (e muito) da natureza aberta da IA de consumo geral. Nesse nicho, a tecnologia é usada para executar todo tipo de tarefa, como a criação de imagens, vídeos e até áudios com voz, de forma muito semelhante à de um ser humano real. Um uso muito mais perigoso e com maior potencial de danos no que tange à manipulação da opinião pública, por exemplo.
A diferenciação de riscos também deve considerar os campos de atuação da IA. A atenção das autoridades deve ser redobrada para sistemas que controlam infraestruturas críticas, tomam decisões de grande impacto econômico ou deliberam sobre assuntos relacionados a direitos e liberdades individuais, com potencial de perpetuar ou amplificar algum tipo de discriminação.
Nesse sentido, o contato próximo das autoridades com especialistas e técnicos em IA deve ser constante, tanto durante o debate da proposta quanto no momento da devida regulamentação. De nada adianta propor regras para a tecnologia sem o conhecimento adequado sobre cada uma de suas etapas, ciclos de vida e tipos de aplicação nos mais variados setores. O universo da IA é repleto de nuances e de atores com as mais diversas funções. Trata-se de um mundo novo, com muita coisa ainda a ser descoberta.
Outro ponto do projeto que merece mais debate é o trabalho com dados. A base de toda e qualquer IA são os dados — para o bem ou para o mal. E a IA, sobretudo a generativa, trabalha com uma quantidade enorme deles, pois é alimentada por grandes modelos de linguagem (Large Language Models — LLMs), que chegam a armazenar trilhões de palavras e ocupar terabytes (ou até petabytes) de memória. Trabalhar com essa escala é arriscado — afinal, como garantir que todas essas informações sejam de fontes confiáveis e seguras? E como auditar tudo isso? Por isso, a nova legislação deve considerar os diferentes usos de fontes de dados para IA. No caso corporativo, por exemplo, os dados utilizados não estão dispersos na nuvem e são oriundos da própria empresa — portanto, muito mais seguros e controlados, preservando a integridade da informação. A regulação deve considerar esse como um nível de risco mais baixo, em comparação com outras aplicações de IA.
Vale destacar, no entanto, que as empresas não estão isentas de obrigações. Todas elas precisam fornecer documentações detalhadas sobre os sistemas de IA que utilizam e garantir que as decisões — sobretudo as de risco mais elevado — sejam sempre tomadas por uma pessoa capacitada. Além disso, devem informar os usuários de forma ativa e constante sobre como a IA é aplicada, como ela toma decisões (e como essas decisões os afetam) e como a tecnologia utiliza (e utilizará) os dados de cada um. O desafio não é pequeno.
A IA está aqui, transformando a economia e nossas vidas de maneiras que mal começamos a compreender. Devemos pavimentar esse caminho para seguir rumo à inovação, sem nos desviar dos princípios éticos. Essa é uma ferramenta que já está em nossas mãos. Nossa responsabilidade é fazer com que ela seja utilizada para construir um futuro melhor.
Gerente de relações com o governo da Salesforce no Brasil*
Saiba Mais