Inteligência artificial generativa é um conjunto de sistemas computacionais capazes de produzir novos conteúdos — como textos, imagens, códigos, relatórios ou outras saídas informacionais — a partir de padrões extraídos de grandes volumes de dados previamente analisados. Esses sistemas utilizam modelos matemáticos avançados, particularmente redes neurais profundas, que identificam regularidades, relações e estruturas presentes nos dados de treinamento. A partir disso, conseguem formular respostas, análises, documentos ou materiais, em formato coerente e contextualizado, simulando um processo criativo ou interpretativo.
No contexto das contratações públicas, a inteligência artificial generativa não se limita a recuperar informações existentes em bancos de dados genéricos ou especializados: ela gera alternativas, sínteses, minutas, comparações de documentos e soluções que antes demandavam elaboração humana direta. Por esta razão, seu uso exige atenção redobrada quanto à origem dos dados, à precisão das respostas, à transparência dos métodos e aos riscos inerentes de inconsistências, omissões ou vieses que podem afetar decisões as administrativas e a conformidade legal e constitucional dos atos.
O avanço recente destas tecnologias de inteligência artificial, especialmente das soluções classificadas como inteligência artificial generativa, inaugurou uma nova etapa na gestão pública. Ferramentas capazes de analisar grandes volumes de informações, identificar padrões complexos e produzir conteúdos inéditos vêm sendo incorporadas, de forma crescente, aos processos administrativos, inclusive no plano das contratações públicas. Essa evolução tecnológica traz consigo oportunidades relevantes para o aprimoramento da eficiência, da celeridade e da racionalidade das decisões estatais. No entanto, também introduz desafios que exigem cautela, critérios claros e aderência rigorosa ao arcabouço jurídico que rege a Administração.
Parece inegável que a inteligência artificial, em especial os modelos de linguagem (LLM), em maior ou menor intensidade, já estão incorporados aos processos de contratação pública de grande parte dos órgãos e entidades da Administração Pública – seja pelo uso pessoal e individual, seja pelo uso institucional.
Parecem inegáveis também, os ganhos de eficiência, celeridade e eficácia decorrentes do seu uso correto e adequado.
Fundamental registrar que, em um ambiente normativo fundado nos princípios da eficiência, da legalidade, da impessoalidade, da motivação e da responsabilidade do agente público, o emprego de sistemas de IA somente se legitima quando observado um conjunto mínimo de cautelas e requisitos por parte dos agentes públicos.
O uso indiscriminado ou tecnicamente imaturo destas ferramentas pode comprometer a confiabilidade das análises, gerar vieses, induzir decisões equivocadas e, em última instância, vulnerar regras e princípios administrativos e o próprio interesse público. Diante deste cenário, torna-se indispensável estabelecer parâmetros objetivos para orientar órgãos e entidades na adoção responsável da inteligência artificial generativa, assegurando que sua utilização complemente — e jamais substitua — o juízo crítico, a supervisão humana e o rigor procedimental que caracterizam as boas práticas das contratações públicas.
É neste contexto que se insere o artigo, pelo qual se propõe dez requisitos essenciais para que o uso de modelos de inteligência artificial generativa ocorra de forma ética, segura, juridicamente adequada e compatível o sistema normativo brasileiro.
1º Requisito – capacitação técnica e jurídica no tema das contratações públicas
A qualidade e a eficiência dos resultados obtidos com o uso de inteligência artificial generativa de modelos de linguagem são diretamente proporcionais à qualidade da capacitação dos agentes públicos que os utilizam. Ou seja, quanto mais conhecimentos e especialização detiver o agente público sobre a temática jurídica e técnica das contratações públicas, melhores e mais precisos serão os resultados do uso de inteligência artificial.
Uma premissa fundamental pode ser fixada: os agentes públicos que utilizam modelos de inteligência artificial generativa de linguagem nos processos de contratação pública devem ser mínima e suficientemente capacitados e minimamente conhecedores das normas (leis, regulamentos, etc) de regência, dos precedentes jurisprudenciais sobre os temas e da doutrina especializada. Do contrário, podem não ter condições mínimas de avaliar os resultados produzidos pelos modelos.
Não seria correto, entretanto, afirmar que o uso de modelos de inteligência artificial nos processos de contratação pública deveria ser conduta exclusiva daqueles agentes públicos plenamente capacitados no tema (de licitações e contratos administrativos). Ganhos de eficiência, eficácia e celeridade também podem ser – e certamente serão – obtidos do uso por agentes públicos sem plenos conhecimentos técnicos ou jurídicos.
Mas parece inegável que há riscos potenciais de uso de IA por agentes públicos sem conhecimentos suficientes sobre o tema das contratações públicas.
2º Requisito – conhecer minimamente o funcionamento dos modelos de inteligência artificial generativa baseados em linguagem natural[1]
Os modelos de inteligência artificial generativa baseados em linguagem natural, conhecidos como Large Language Models (LLMs), são majoritariamente estruturados segundo a arquitetura denominada transformer, introduzida no trabalho seminal Attention Is All You Need. Estes modelos funcionam a partir da análise estatística de enormes volumes de textos extraídos de bases públicas, documentos técnicos, jurídicos e outras fontes informacionais internas ou externas.
Durante o processo de treinamento, o sistema identifica padrões recorrentes de coerência entre palavras, expressões e estruturas sintáticas, aprendendo a prever, com determinado grau de probabilidade, qual elemento textual tende a ocorrer em seguida, dado um determinado contexto.
É essencial destacar que esse processo não envolve compreensão semântica, interpretação normativa ou raciocínio jurídico, mas sim a modelagem matemática de regularidades linguísticas. O modelo não “entende” o conteúdo dos textos, tampouco distingue normas vigentes de normas revogadas, entendimentos consolidados de posições isoladas ou argumentos jurídicos válidos de formulações apenas recorrentes. Ele apenas calcula probabilidades a partir de padrões previamente aprendidos.
A arquitetura transformer diferencia-se de modelos anteriores por abandonar mecanismos sequenciais rígidos e adotar o mecanismo de atenção (attention) como núcleo do processamento da linguagem. Em vez de tratar o texto de forma linear, o transformer avalia simultaneamente as relações entre todos os elementos do contexto, permitindo identificar quais partes do texto são estatisticamente mais relevantes para a geração da resposta. Esse mecanismo é aplicado em múltiplas camadas (multi-head attention), ampliando a capacidade do modelo de capturar relações complexas entre diferentes trechos do texto.
Para que esse processamento ocorra, os textos fornecidos ao modelo são inicialmente fragmentados em pequenas unidades denominadas tokens, que podem corresponder a palavras inteiras, partes de palavras ou caracteres. Cada token é convertido em uma representação vetorial numérica por meio do processo de embedding. Esses vetores não carregam significado jurídico ou semântico em sentido humano, mas representam posições relativas em um espaço matemático de alta dimensionalidade, no qual proximidades e distâncias refletem correlações estatísticas observadas no treinamento.
No uso prático dos LLMs, o prompt corresponde ao conjunto de informações fornecidas pelo usuário — incluindo perguntas, instruções, contexto fático ou normativo, documentos, parâmetros institucionais e restrições explícitas. Sob o ponto de vista funcional, o prompt representa a consulta dirigida ao modelo, ou seja, aquilo que se pretende obter como resposta. Em termos técnicos, pode-se afirmar que o prompt exerce a função de query, embora essa query não exista como campo textual isolado.
Internamente, após o prompt ser tokenizado e convertido em embeddings, o próprio modelo constrói três vetores fundamentais: query, key e value. A query corresponde à representação vetorial da consulta que está sendo processada em determinado ponto do cálculo; as keys correspondem às representações vetoriais das informações disponíveis no contexto interno do modelo; e os values são os conteúdos associados a essas keys, que poderão ser efetivamente utilizados na formulação da resposta. O mecanismo de attention consiste na comparação matemática entre a query e as keys, por meio de operações vetoriais que calculam o grau de similaridade estatística entre elas.
Quanto maior a similaridade numérica entre a query e determinada key, maior será o peso atribuído ao respectivo value na composição da resposta. Esse processo é inteiramente probabilístico e não incorpora qualquer critério de correção jurídica, validade normativa, atualidade das fontes ou adequação institucional. A partir dessa ponderação, o modelo utiliza funções matemáticas — como a softmax — para distribuir pesos relativos e selecionar, passo a passo, o token mais provável para continuidade do texto.
É fundamental esclarecer que o prompt não contém diretamente as keys, nem define, por si, quais informações são corretas, legítimas ou juridicamente adequadas. O que o prompt faz é delimitar o universo informacional a partir do qual o modelo formará internamente suas keys. Assim, quando o agente público fornece normas, precedentes, manuais, orientações administrativas ou parâmetros institucionais, ele não transfere conhecimento jurídico ao modelo, mas influencia decisivamente quais representações internas serão priorizadas no mecanismo de atenção.
Desta característica estrutural decorre a relevância da engenharia de contexto. Como o modelo não possui capacidade própria de seleção qualitativa das informações, cabe ao agente público — e, sobretudo, à instituição — estruturar conscientemente o contexto fornecido, definindo recortes normativos claros, selecionando documentos válidos e atualizados e excluindo informações irrelevantes, conflitantes ou obsoletas. Contextos genéricos ou mal delimitados conduzem à formação de keys inadequadas, ampliando a aleatoriedade das respostas e elevando os riscos jurídicos do uso da inteligência artificial.
Apesar da sofisticação técnica e da aparência de racionalidade, os modelos de linguagem operam exclusivamente por correlações estatísticas e não possuem consciência, intenção, responsabilidade ou juízo de valor. Por essa razão, a compreensão mínima de seu funcionamento é requisito indispensável para o uso eficiente, seguro e juridicamente adequado da inteligência artificial nas contratações públicas. Somente a partir desse entendimento é possível formular prompts adequados, estruturar corretamente o contexto, avaliar criticamente os resultados produzidos e assegurar que a inteligência artificial permaneça em seu papel legítimo de instrumento auxiliar, acessório e complementar à atuação humana.
3º Requisito: Reconhecer a importância do contexto fornecido ao modelo de inteligência artificial
O uso eficiente, seguro e juridicamente adequado de modelos de inteligência artificial nas contratações públicas depende, de modo decisivo, da qualidade do contexto informacional fornecido ao modelo.
Os sistemas de inteligência artificial generativa não possuem compreensão jurídica, institucional ou fática própria; operam a partir das informações que lhes são disponibilizadas no momento da consulta. Assim, a resposta produzida será tão adequada, precisa e confiável quanto for o contexto que delimita e orienta a atuação do modelo.
Reconhecer a importância do contexto significa compreender que a inteligência artificial não “busca” espontaneamente a melhor solução jurídica ou administrativa, mas responde dentro dos limites informacionais e semânticos que lhe são impostos.
Contextos genéricos, incompletos ou desorganizados ampliam o grau de aleatoriedade das respostas e favorecem o uso de padrões amplos, abstratos ou inadequados à realidade normativa e institucional das contratações públicas. Por outro lado, contextos bem estruturados reduzem incertezas, aumentam a aderência às normas vigentes e qualificam o apoio prestado ao agente público.
Neste cenário, assume especial relevância a chamada engenharia de contexto, entendida como o conjunto de técnicas e decisões administrativas voltadas à definição, organização e fornecimento estruturado das informações que servirão de base para a atuação da inteligência artificial. No âmbito da Administração Pública, a engenharia de contexto não é atividade meramente técnica, mas verdadeira conduta administrativa, que envolve seleção criteriosa de documentos, delimitação de escopo normativo, indicação de parâmetros institucionais e exclusão consciente de informações irrelevantes, sensíveis ou desatualizadas.
O uso de inteligência artificial por meio de APIs reforça essa lógica.
Uma API (Application Programming Interface) é um conjunto de regras, padrões e protocolos que permite a comunicação controlada entre sistemas computacionais distintos – por exemplo, para acessar um determinado sítio eletrônico.
Por meio de uma API, um sistema pode solicitar informações, enviar dados ou acionar funcionalidades de outro sistema de forma padronizada, segura e automatizada, sem necessidade de acesso direto à sua estrutura interna. Em termos práticos, a API funciona como uma interface intermediária que define o que pode ser acessado, como pode ser acessado e em que condições, permitindo a integração entre aplicações diferentes, inclusive entre sistemas institucionais e modelos de inteligência artificial.
No contexto do uso de inteligência artificial na Administração Pública, a API é o mecanismo que possibilita à instituição controlar o fluxo de informações fornecidas ao modelo, integrando-o a bases de dados internas, aplicando filtros, limites de acesso, registros de uso e regras de segurança.
Ao utilizar inteligência artificial via API, a Administração pode definir quais dados serão enviados, em que formato, com que finalidade e com que nível de rastreabilidade, reduzindo riscos de exposição indevida de informações e ampliando a governança, a auditabilidade e a conformidade jurídica do uso da tecnologia, especialmente em processos sensíveis como as contratações públicas.
Diferentemente do uso genérico de interfaces abertas, a utilização via API permite que a Administração controle com precisão quais dados são enviados ao modelo, em que formato, com que finalidade e sob quais salvaguardas. A API possibilita integração direta com bases institucionais, aplicação de filtros, restrições de acesso, controle de logs e rastreabilidade, tornando o contexto fornecido mais estável e previsível.
Outro avanço relevante no tratamento do contexto é o uso de agentes de inteligência artificial, que operam como camadas intermediárias entre o usuário e o modelo de linguagem. Esses agentes podem ser programados para recuperar informações específicas, consultar repositórios institucionais, aplicar regras pré-definidas, validar dados e estruturar o contexto antes da geração da resposta.
No ambiente das contratações públicas, agentes de IA permitem automatizar a preparação do contexto de forma controlada, reduzindo erros humanos e garantindo maior aderência às normas internas e ao regime jurídico aplicável.
Também se insere nesse requisito o uso de modelos personalizados ou GPTs customizados, treinados ou configurados com base em orientações institucionais, documentos normativos, manuais internos e entendimentos consolidados. A personalização do modelo não elimina a necessidade de revisão humana, mas contribui para que as respostas sejam produzidas dentro de um horizonte informacional previamente delimitado, alinhado à cultura administrativa, às práticas institucionais e às exigências dos órgãos de controle.
Em síntese, reconhecer a importância do contexto fornecido ao modelo de inteligência artificial significa assumir que a qualidade da resposta não é atributo do sistema, mas resultado de decisões humanas e institucionais sobre como, com que dados e em que condições a tecnologia será utilizada.
A engenharia de contexto, o uso de APIs, de agentes de IA e de modelos personalizados são instrumentos que, quando corretamente empregados, reduzem a aleatoriedade, mitigam riscos jurídicos e transformam a inteligência artificial em efetivo instrumento de apoio qualificado às contratações públicas, preservando a segurança jurídica, a responsabilidade administrativa e o interesse público.
4º Requisito: Implementar e efetivar processos e estruturas de governança de inteligência artificial
Governança de inteligência artificial é o conjunto condutas e estruturas de liderança, estratégia e controle postos em prática para avaliar, direcionar e monitorar o uso de modelos ou ferramentas de inteligência artificial para assegurar que a utilização seja realizada seja de acordo com as regras e princípios que regem a Administração Pública, e com riscos aceitáveis.
Implementar processos e estruturas de governança de inteligência artificial é de competência da alta administração do órgão, entidade pública ou empresa estatal.
O primeiro dever de governança de inteligência artificial é a edição de normas internas e regulamentos internos para orientar e definir os limites e possibilidades de uso de ferramentas de inteligência artificial. Devem ser elaborados códigos de ética e conduta; manuais e outros instrumentos jurídico-normativos, contendo as regras para o uso ético e legalmente correto dos modelos de inteligência artificial.
Prejuízos (seja de que natureza forem) para a Administração decorrentes do uso ilegal, antiético e irregular de ferramentas de inteligência artificial podem gerar a responsabilidade pessoal os integrantes da alta administração, por omissão própria, se decorrerem de defeitos de governança.
Os limites e possibilidades de utilização de modelos de inteligência artificial devem, portanto, ser definidos pela alta administração, e o uso se dará nos limites deste risco permitido definido institucionalmente.
O segundo dever de governança é de fomentar e efetivar a plena capacitação técnica dos agentes públicos para esta especifica e especial tarefa que é o uso correto de ferramentas de inteligência artificial. Esta utilização demanda conhecimentos e habilidades bastante peculiares e bastante diversas de que são usualmente detentores os agentes públicos em caráter ordinário.
Por fim, o terceiro dever de governança é o de adotar as providencias técnicas necessárias para o uso, como a aquisição de computadores e a contratação do acesso a modelos de inteligência artificial que sejam reconhecidamente eficientes e adequados tecnicamente.
5º Requisito: Gerenciamento dos riscos de inteligência artificial
Gestão de riscos de inteligência artificial é o processo sistemático, contínuo e estruturado por meio do qual a Administração Pública identifica, analisa, avalia, trata, monitora e comunica os riscos decorrentes do desenvolvimento, da integração e do uso de ferramentas e modelos de inteligência artificial, de modo a assegurar que sua utilização permaneça compatível com os princípios constitucionais, com as normas administrativas, com padrões éticos administrativos e de segurança, e dentro de níveis de risco institucionalmente aceitáveis.
Este processo envolve a definição de critérios de risco pela alta administração, a análise dos impactos potenciais (operacionais, jurídicos, éticos, de integridade, reputacionais e tecnológicos), a implementação de controles mitigadores e a revisão periódica da eficácia desses controles, garantindo que a IA seja utilizada como instrumento de apoio para o exercício de atribuições administrativas.
As informações obtidas e produzidas no processo de gestão de riscos de inteligência artificial serão consolidadas e materializadas no mapa de riscos de inteligência artificial.
Mapa de riscos de inteligência artificial é o instrumento estruturado de gestão que organiza, consolida e apresenta, de forma gráfica e sistematizada, os riscos identificados em determinado processo, atividade ou área de uso de inteligência artificial, permitindo visualizar sua probabilidade de ocorrência, seus impactos potenciais e o nível de exposição institucional associado.
Elaborado com base nos princípios e diretrizes da ISO 31000, o mapa de riscos auxilia a alta administração e os gestores na priorização de ações preventivas, na alocação adequada de controles mitigadores e no monitoramento contínuo dos riscos, assegurando que as vulnerabilidades relevantes sejam tratadas tempestivamente e dentro de níveis de risco considerados aceitáveis pela instituição.
O mapa de riscos de inteligência artificial é documento importante para a adoção de ações de controle preventivo e concomitante, de modo a evitar que o uso incorreto da ferramenta de IA possa causar prejuízos para a Administração.
Com base nas informações sobre riscos de inteligência artificial integrantes do mapa serão realizadas as necessárias e indispensáveis ações de controle interno e de planejamento institucional.
6º Requisito: assegurar que o uso de inteligência artificial generativa seja feito exclusivamente em caráter instrumental, acessório e complementar – vedada a terceirização ilegal de atividades administrativas com uso de IA
É absolutamente vedada, pena de violação de princípios que regem a Administração Pública – no mínimo – a utilização de modelos de inteligência artificial generativa em caráter substitutivo da atuação principal do agente público no exercício de função essencial no processo da contratação.
Pode-se afirmar que é vedada a terceirização ilegal de atividades administrativas por intermédio do uso de inteligência artificial.
Deve-se entender que o uso de modelo de inteligência artificial generativa é, sob certa forma, uma espécie de terceirização de atividade pública. Nesta medida, o agente público delega para o modelo certa tarefa ou atividade, que será executada. Assim como no caso da terceirização de serviços, esta terceirização por intermédio de modelos de inteligência artificial deve ser feita nos termos do disposto no art. 48 da Lei nº 14.133/21, que preceitua que “poderão ser objeto de execução por terceiros as atividades materiais acessórias, instrumentais ou complementares aos assuntos que constituam área de competência legal do órgão ou da entidade”. Este o limite material de uso de inteligência artificial generativa nos processos de contratação pública.
Se a premissa é de que o uso de inteligência artificial deve ser acessório, instrumental ou complementar, fica evidente que o agente público usuário deve deter, obrigatoriamente, conhecimentos técnicos e jurídicos sobre o processo da contratação pública adequados e suficientes para o desempenho de função essencial, que será apenas auxiliado pelo modelo de inteligência artificial.
No curso do processo da contratação os agentes públicos praticam condutas de alta relevância e complexidade. É ilegal o uso de modelos de inteligência artificial para substituir decisões e condutas de competência dos agentes públicos. O uso indevido de modelo de inteligência artificial, para realizar tarefas e atribuições exclusivas de agentes públicos, implica riscos de alto impacto e alta probabilidade.
De acordo com o antes dito sobre a estrutura funcional dos modelos de inteligência artificial generativa de linguagem, a substituição da ação humana por atividade produzida integral ou substancialmente por IA no processo da contratação – em especial no que diz respeito à inexistência de possibilidade de raciocínio ou juízo crítico/valorativo pelo modelo – deve ser coibida e desestimulada, por intermédio de um bom sistema de governança de inteligência artificial.
Conclui-se que, se o usuário (i) utilizar o modelo de IA para substituir integral ou substancialmente a conduta humana, e (ii) não detiver conhecimentos técnicos e jurídicos suficientes, não terá condições de avaliar se a resposta do modelo é efetivamente correta e útil. Ou, o que é pior, se a resposta do modelo não induz à prática de condutas e atos ilegais e inconstitucionais decorrentes desta terceirização ilegal.
Em termos adicionais, o uso de modelos de inteligência artificial de linguagem deve ocorrer para otimizar e maximizar resultados de condutas administrativas, conferindo mais eficiência para a Administração. Deve constituir instrumento complementar de aprendizagem e de aperfeiçoamento da ação profissional (fonte legítima de conhecimento), e não ferramenta que possa contribuir para o empobrecimento do conhecimento.
7º Requisito: Garantir o uso exclusivamente institucional da inteligência artificial, com plena rastreabilidade e auditabilidade
O uso de inteligência artificial nos processos de contratação pública deve ocorrer exclusivamente por meio de ferramentas institucionais, autorizadas e controladas, de forma que todas as interações possam ser rastreadas e auditadas.
Rastreabilidade, no contexto do uso de inteligência artificial na Administração Pública, é a capacidade de identificar, registrar e recuperar, de forma íntegra e verificável, todas as interações realizadas com a ferramenta de IA – incluindo quem utilizou, quando utilizou, qual conteúdo foi fornecido e qual conteúdo foi gerado. Trata-se de um requisito que assegura a reconstrução do caminho percorrido até a produção do documento final, permitindo verificar a origem das informações, garantir a transparência do processo administrativo e possibilitar o controle, a auditoria e a responsabilização quando necessário.
A rastreabilidade protege o interesse público ao garantir que o uso da inteligência artificial seja documentado, institucional, seguro e alinhado às normas de regência, impedindo que informações produzidas sem registro, em ambiente pessoal ou não autorizado, sejam incorporadas aos processos de contratação pública – ou tornadas públicas indevidamente.
Auditabilidade, no contexto do uso de inteligência artificial na Administração Pública, é a capacidade de verificar, inspecionar e comprovar, de forma independente, transparente e documentada, todas as etapas, registros e decisões que envolveram o uso da ferramenta de IA em um processo administrativo.
Ela exige que existam evidências suficientes, organizadas e acessíveis, que permitam ao controle interno, à auditoria e ao controle externo reconstituir integralmente como, quando e por quem o modelo de inteligência artificial foi utilizado, quais informações foram fornecidas e quais resultados foram produzidos.
A auditabilidade garante segurança jurídica, reforça a integridade do processo de contratação pública. Trata-se de um requisito indispensável para a transparência, a conformidade e a responsabilização, assegurando que todo uso da inteligência artificial seja legítimo, institucional e plenamente transparente e acessível para os órgãos de controle interno e externo.
A utilização de contas pessoais, plataformas privadas, ou aplicativos não homologados e autorizados pela Administração representa risco elevado à integridade, à segurança da informação e à transparência do processo de contratação.
A segregação entre uso institucional e uso pessoal é indispensável para preservar a governança digital e o dever de zelo sobre informações públicas – uma vez que o uso pessoal de inteligência artificial não possibilita a rastreabilidade ou a auditabilidade (o controle institucional).
Tendo por premissa o princípio da proporcionalidade e o princípio da razoabilidade, reputa-se importante registrar e documentar adequadamente todas as interações relevantes com a inteligência artificial, sempre que contribuírem para a elaboração de documentos técnicos, estudos, análises, justificativas, pareceres ou quaisquer peças inseridas em processos de contratação – o sistema de governança de inteligência artificial e regras internas devem estabelecer os parâmetros para o registro das interações com o modelo.
Em outro sentido, é de se entender que atividades ou conteúdos de baixa complexidade, como mero auxilio na redação de textos, análise de documentos, comparação de documentos entre outros, não demandam registro formal de uso da inteligência artificial (razoabilidade e proporcionalidade).
Em outros termos, cabe à alta administração definir os parâmetros e critérios de registro do uso de inteligência artificial nos processos de contratação pública.
8º Requisito: garantir a revisão humana dos documentos produzidos
A revisão humana dos documentos produzidos com o auxílio de modelos de inteligência artificial generativa constitui requisito indispensável para o uso eficiente, seguro e juridicamente legítimo dessas ferramentas nos processos de contratação pública.
Tal exigência decorre diretamente da natureza limitada desses sistemas, que, embora capazes de gerar textos sofisticados e formalmente coerentes, não detêm compreensão jurídica, capacidade crítica ou juízo de valor normativo.
Como já destacado ao longo deste artigo, os modelos de inteligência artificial generativa operam a partir de correlações estatísticas e probabilísticas entre dados e textos, sem discernir, por si, a validade jurídica, a adequação normativa ou a compatibilidade de suas respostas com o ordenamento jurídico vigente. Por esta razão, os resultados por eles produzidos não podem, em hipótese alguma, ser considerados conclusivos, definitivos ou autoexecutáveis no âmbito das contratações públicas.
A revisão humana é, portanto, essencial para avaliar a conformidade técnica e jurídico-constitucional dos documentos elaborados com apoio da inteligência artificial.
Cabe ao agente público — devidamente capacitado e competente — analisar criticamente o conteúdo produzido.
Em primeira análise indispensável, o agente público deve identificar informações inverídicas, referencias a precedentes judiciais, de Tribunais de Contas ou matéria doutrinária inexistentes de fato. Deve avaliar a veracidade das informações contidas no documento produzido com auxílio de inteligência artificial – para detectar conteúdo falso, a aderência do texto às normas aplicáveis, confrontar entendimentos com a legislação vigente, com a jurisprudência dos tribunais de contas e com as diretrizes institucionais, bem como ajustar, complementar ou rejeitar integralmente o material apresentado pelo modelo.
Esse dever de revisão humana decorre, ainda, do princípio da responsabilidade do agente público. A utilização de inteligência artificial não transfere, mitiga ou compartilha a responsabilidade pela prática do ato administrativo. O agente permanece integralmente responsável pelo conteúdo dos documentos que subscreve, valida ou incorpora ao processo de contratação, ainda que tenham sido elaborados com apoio de ferramentas tecnológicas. Não existe, no regime jurídico-administrativo brasileiro, qualquer forma de excludente de responsabilidade fundada no uso de inteligência artificial.
A ausência de revisão humana amplia significativamente os riscos de incorporação de erros materiais, inconsistências normativas, referências a dispositivos revogados, entendimentos isolados ou soluções incompatíveis com a realidade institucional. Além disso, pode induzir à prática de atos ilegais ou inconstitucionais, especialmente quando o modelo é utilizado por agentes que não detêm domínio técnico suficiente para avaliar criticamente o conteúdo gerado.
Sob a perspectiva da governança e do controle, a revisão humana também se conecta diretamente aos requisitos de rastreabilidade e auditabilidade.
A revisão não deve ser meramente formal ou superficial. Exige análise substancial, técnica e jurídica, compatível com a relevância do documento e com os impactos do ato administrativo a ser praticado. Quanto maior a complexidade, a discricionariedade ou o potencial impacto da decisão no processo de contratação, mais rigorosa deve ser a revisão humana dos conteúdos produzidos pela inteligência artificial.
Em síntese, garantir a revisão humana dos documentos produzidos não é apenas uma boa prática, mas um dever jurídico inafastável. Trata-se do elemento que assegura que a inteligência artificial permaneça no seu papel legítimo de instrumento auxiliar, acessório e complementar, preservando o protagonismo decisório do agente público, a segurança jurídica dos atos administrativos e a integridade dos processos de contratações públicas. Sem revisão humana qualificada, o uso de inteligência artificial deixa de ser fator de eficiência e passa a representar fonte relevante de risco jurídico e institucional.
9º Requisito: tratar de modo adequado as informações institucionais que serão acessadas pelos modelos para a formulação das respostas de inteligência artificial
O uso de modelos de inteligência artificial generativa em atividades relacionadas às contratações públicas depende fundamentalmente das informações institucionais estruturadas, confiáveis, atualizadas e juridicamente válidas, de modo a garantir que as respostas produzidas sejam conformes com o ordenamento jurídico.
Informações desorganizadas, inconsistentes ou juridicamente inválidas podem comprometer a qualidade das respostas e gerar riscos técnicos, legais e reputacionais à Administração Pública.
Neste sentido, o tratamento das informações institucionais para uso por modelos de inteligência artificial deve ser orientado por princípios de governança da informação e normas de proteção de dados.
Para esta análise, se pode classificar, basicamente, as informações a serem objeto de tratamento correto e proteção para uso de inteligência artificial – se for o caso, em: (i) informações submetidas ao regime da Lei Geral de Proteção de Dados; e (ii) informações institucionais que não possam ou devam ser tornadas públicas, atendidos os preceitos da Lei nº 12.527/11.
Para dar efetividade a esse requisito, no plano ideal, a Administração deve promover a criação ou aprimoramento de repositórios institucionais de dados e documentos — como datalakes e data warehouses — organizados por critérios técnicos, metadados padronizados e regras claras de classificação documental. Estes repositórios devem abrigar informações utilizadas pelos modelos de IA, com marcas de validade jurídica, vínculos normativos, e mecanismos de atualização periódica, de forma a evitar o uso de versões obsoletas de normas, orientações ou precedentes. A adoção de ferramentas de catalogação automatizada e de gestão documental integrada reforça a coerência e a rastreabilidade das informações consultadas.
Se inserem no âmbito de proteção legal de dados da LGPD: (i) dado pessoal: informação relacionada a pessoa natural identificada ou identificável; (ii) dado pessoal sensível: dado pessoal sobre origem racial ou étnica, convicção religiosa, opinião política, filiação a sindicato ou a organização de caráter religioso, filosófico ou político, dado referente à saúde ou à vida sexual, dado genético ou biométrico, quando vinculado a uma pessoa natural.
Registre-se, para esta análise, que a disciplina da proteção de dados pessoais tem como fundamentos: I – o respeito à privacidade; II – a autodeterminação informativa; III – a liberdade de expressão, de informação, de comunicação e de opinião; IV – a inviolabilidade da intimidade, da honra e da imagem; V – o desenvolvimento econômico e tecnológico e a inovação; VI – a livre iniciativa, a livre concorrência e a defesa do consumidor; e VII – os direitos humanos, o livre desenvolvimento da personalidade, a dignidade e o exercício da cidadania pelas pessoas naturais. Nesta medida, o uso de dados pessoais por intermédio de modelos de inteligência artificial deve ser precedido de avaliação destes fundamentos.
Por força do regime de proteção de dados pessoais, a Administração deve adotar procedimentos formais de classificação de dados, distinguindo aqueles que podem ser acessados pela IA daqueles que devem ser restritos ou tratados com técnicas de anonimização (utilização de meios técnicos razoáveis e disponíveis no momento do tratamento, por meio dos quais um dado perde a possibilidade de associação, direta ou indireta, a um indivíduo – conceito previsto no art. 5º, XI da LGPD).
Como referência, cite-se a Resolução nº 615/2025 do Conselho Nacional de Justiça, que oferece parâmetros úteis de governança que podem ser adaptados ao contexto da Administração Pública em geral, ao estabelecer que a curadoria dos dados utilizados em soluções de IA deve observar fontes seguras, rastreáveis e auditáveis, preferencialmente governamentais, e que a proteção de dados pessoais deve ser considerada elemento central da governança tecnológica.
A segunda categoria de informações que merecem avaliação antes de serem inseridas em modelos de inteligência artificial é daquelas que não possam ou devam ser tornadas públicas.
Cada órgão ou entidade pública deve avaliar e classificar tais informações. São exemplos de informações que podem exigir sigilo: definições de planejamento estratégico de empresas estatais; as que envolvam segredo industrial, direito de propriedade intelectual ou autoral, entre outras.
A Administração deve, portanto, incluir em suas políticas internas disposições claras sobre quais fontes de dados podem ser acessadas pela IA, sob quais condições, por quem e com que salvaguardas de segurança da informação.
Entre as providências concretas que a Administração pode adotar para tratar adequadamente as informações institucionais estão: (i) estabelecimento de governança documental, com papéis e responsabilidades definidos; (ii) implementação de mecanismos de curadoria de dados com a participação de especialistas técnicos e jurídicos; (iii) classificação e rotulagem por metadados que facilitem a recuperação, a validade e o controle de versões; (iv) definição de métricas de qualidade dos dados e auditorias periódicas; e (v) integração dos repositórios com sistemas de monitoramento de conformidade e segurança cibernética, incluindo criptografia, controle de acessos e logs de uso.
Para mitigar riscos de uso indevido de informações sensíveis ou inapropriadas, é recomendável que a Administração elabore políticas institucionais de tratamento e acesso, que estabeleçam restrições claras para dados sensíveis, regras de consentimento quando cabível, e procedimentos de resposta a incidentes que envolvam violação, vazamento ou uso não autorizado de dados. Essas políticas devem ser acompanhadas de programas de capacitação e treinamento contínuo de servidores, enfatizando obrigações de conformidade com a LGPD, bem como boas práticas de governança e de segurança da informação.
É essencial que a Administração estabeleça rotinas formais de atualização contínua das bases informacionais utilizadas pelos modelos, com responsáveis e prazos definidos para revisão de normas, regulamentos, jurisprudência e orientações de órgãos de controle interno e externo. A desatualização de bases de dados pode levar à formulação de respostas imprecisas ou juridicamente inadequadas, fato que compromete tanto a eficácia da inteligência artificial quanto a segurança jurídica dos atos administrativos.
10º requisito: Uso ético da inteligência artificial
O uso de modelos de inteligência artificial nos processos de contratação pública deve observar, de forma rigorosa, padrões éticos compatíveis com os princípios constitucionais que regem a Administração Pública.
A incorporação de tecnologias baseadas em inteligência artificial não autoriza flexibilizações indevidas dos deveres de probidade, lealdade institucional, moralidade administrativa e compromisso com o interesse público. Ao contrário, o uso dessas ferramentas exige reforço das cautelas éticas, justamente em razão de seu potencial impacto sobre decisões administrativas relevantes.
A ética no uso da inteligência artificial está diretamente vinculada aos princípios da legalidade, da impessoalidade, da moralidade, da publicidade e da eficiência. É incompatível com estes princípios qualquer utilização da inteligência artificial que resulte em direcionamento indevido de contratações, favorecimento de interessados, ocultação de informações relevantes ou manipulação artificial de análises técnicas e jurídicas. A tecnologia não pode ser utilizada como meio de conferir aparência de neutralidade a decisões previamente tomadas sem base fática ou normativa adequada.
É vedado, sob o ponto de vista ético, o uso de modelos de inteligência artificial para fabricar fundamentos inexistentes, simular análises que não foram efetivamente realizadas ou reforçar conclusões previamente definidas sem adequada motivação administrativa. A utilização da inteligência artificial como instrumento de legitimação artificial de decisões ilegais, arbitrárias ou desproporcionais configura grave violação ética e compromete a integridade do processo de contratação pública.
O uso ético da inteligência artificial pressupõe, ainda, respeito estrito à finalidade pública desta utilização. As ferramentas de IA devem ser empregadas exclusivamente como instrumentos de apoio à melhoria da eficiência, da racionalidade e da qualidade técnica dos atos administrativos, sendo incompatível com a ética administrativa sua utilização, nos processos de contratação, para fins pessoais, privados, políticos ou estranhos ao interesse público. O desvio de finalidade no uso da inteligência artificial caracteriza infração ética relevante e pode ensejar responsabilização do agente público.
Sob a ótica da razoabilidade e da proporcionalidade, a ética no uso da inteligência artificial não exige formalismos excessivos ou inviáveis. Atividades meramente instrumentais, acessórias ou de baixo impacto decisório — como a organização de informações, a elaboração de tabelas ou a redação de comunicações administrativas simples — não demandam, em regra, indicação expressa do uso da ferramenta.
Por outro lado, sempre que a inteligência artificial influenciar de modo relevante a formação do convencimento administrativo, a elaboração de documentos técnicos ou a fundamentação de decisões, impõe-se atuação ética pautada pela transparência, pela prudência e pela revisão humana qualificada.
Em síntese, garantir o uso ético da inteligência artificial significa reafirmar que a tecnologia permanece subordinada ao juízo humano, à responsabilidade funcional e aos valores que estruturam o regime jurídico-administrativo. A ética no uso da inteligência artificial não é atributo ou elemento estrutural do modelo de IA, mas dever do agente público e da instituição que o autoriza.
REFERÊNCIAS
Conselho Nacional de Justiça (CNJ). Resolução CNJ nº 615 de 11 de março de 2025. Disponível em: https://atos.cnj.jus.br/files/original1555302025031467d4517244566.pdf.
VASWANI, Ashish; SHAZEER, Noam; PARMAR, Niki; USZKOREIT, Jakob; JONES, Llion; GOMEZ, Aidan N.; KAISER, Łukasz; POLOSUKHIN, Illia. Attention Is All You Need. Disponível em: https://arxiv.org/pdf/1706.03762.
Acompanhe também novidades sobre licitações e contratos pelo Instagram @joseanacleto.abduch.
Os artigos e pareceres assinados são de responsabilidade de seus respectivos autores, inclusive no que diz respeito à origem do conteúdo, não refletindo necessariamente a orientação adotada pela Zênite.
Gostaria de ter seu trabalho publicado no Zênite Fácil e no Blog da Zênite? Então encaminhe seu artigo doutrinário para editora@zenite.com.br, observando as seguintes diretrizes editoriais.
Continua depois da publicidade
Seja o primeiro a comentar
Utilize sua conta no Facebook ou Google para comentarFacebookGoogle
Assine nossa newsletter e junte-se aos nossos mais de 100 mil leitores
Questão apresentada à Equipe de Consultoria Zênite: “Considerando a manutenção do equilíbrio econômico-financeiro dos contratos administrativos que prevê os institutos da revisão, do reajuste e da repactuação como instrumentos aptos...
Esta seção, “Desvendando Licitações”, tem como objetivo apresentar os conceitos fundamentais e essenciais sobre contratações públicas. A seguir, será apresentada a definição de contrato de risco: Contrato administrativo em que...
O TCU analisou a possibilidade de exigência cumulativa, para fins de habilitação, de documentos para qualificação econômico-financeira em licitações. Segundo o relator, a exigência de capital social ou patrimônio líquido...
RESUMO O presente artigo analisa a utilização do instituto da pré-qualificação, previsto no art. 80, II, da Lei nº 14.133/2021, como instrumento legítimo para a definição prévia de marcas ou produtos...
A Lei nº 14.133/2021, ao estabelecer os requisitos de qualificação técnica que poderão ser exigidos pela Administração na etapa de habilitação, prevê, em seu inciso III o seguinte: “Art. 67. A documentação...
Esta seção, “Desvendando Licitações”, tem como objetivo apresentar os conceitos fundamentais e essenciais sobre contratações públicas. A seguir, será apresentada a definição de contrato de gestão: Contrato de gestão é...
Em pedido de reexame, o TCU analisou controvérsia relacionada à classificação do objeto licitado em pregão destinado à contratação de serviços continuados com dedicação exclusiva de mão de obra para...