Livros novos e descontinuados ao melhor preço do mercado: ↓ ↓

Tradução de Página

Com a criação deste blogue, o autor visou proporcionar um modesto contributo na busca da melhor resposta a várias questões jurídicas controversas.

A descrição, em traços gerais, dos temas abordados, não pretende ser exaustiva, nem dispensa a consulta de um advogado.

segunda-feira, 27 de abril de 2026

Juízes vão ter de declarar o uso de Inteligência Artificial nas sentenças

 

Estátua clássica da Deusa Justiça (Témis) num tribunal solene. Em vez da tradicional venda de tecido, os seus olhos são cobertos por um fluxo brilhante de dados azuis e números binários que emanam luz. Essa luz digital ilumina diretamente a balança de ouro que ela segura. Estilo de arte conceptual em tons de azul, dourado e cinza.
A nova face de Témis: será o algoritmo o novo fiel da balança?

    Imaginem estarem a ler uma sentença ou acórdão de um tribunal e, no rodapé, leem a seguinte frase: 

Esta decisão foi produzida com o auxílio de Inteligência Artificial. 

    Pode parecer o guião de um episódio de “Black Mirror”, mas será a nova realidade da justiça em Portugal. No passado dia 8 de Abril de 2026, o Conselho Superior da Magistratura (CSM) aprovou um conjunto de recomendações propostas pelo Grupo de Acompanhamento da Inteligência Artificial (GAIA). [1] 

[1] As recomendações poderão ser consultadas no Parecer n.º 2025/GAVPM/5469, de 23 de Fevereiro de 2026, acedido e consultado AQUI em 18/04/2026. 

    O objetivo é enquadrar, disciplinar e tornar transparente o uso de ferramentas de inteligência artificial na função jurisdicional. 

    Ao lermos as recomendações do GAIA, logo concluímos que a inteligência artificial pode entrar no tribunal, mas nunca ocupar a cadeira do juiz. E há um pormenor que muda tudo, o juiz deve declarar expressamente se a utilizou... 

    Mas será que estas recomendações protegem a independência judicial ou, pelo contrário, a comprometem? 

    Vamos proceder à apreciação sumária do documento oficial. 

 

1 – O que dizem exatamente as recomendações do GAIA? 

    O Parecer do GAIA, no seu art.º 3.º [2], estabelece princípios claros e vinculativos para todos os juízes dos tribunais judiciais: 

[2] Doravante, sempre que um artigo vier desacompanhado de qualquer referência legislativa, refere-se ao Parecer do Gaia.

Caráter exclusivamente auxiliar: 

    A IA nunca pode substituir o juiz na tomada de decisões, na valoração de factos e provas ou na interpretação e aplicação do direito. O controlo humano deve ser “eficaz e efetivo” (princípio da não substituição). 

Obrigação de revelação/transparência: 

    O uso de IA deve ser expressamente declarado na decisão judicial, podendo tal declaração restringir-se ao seguinte (art.º 10.º n.º 2):

Decisão produzida com o auxílio de sistema de IA, de acordo com as recomendações do CSM. Integralmente revisto pelo signatário.  

Responsabilidade 100% do juiz:

    Mesmo que a IA tenha sido usada para pesquisa, organização de informação ou elaboração de minutas, o magistrado continua a ser o único e pleno responsável pela decisão. 

Utilizações permitidas (art.º 5.º n.º 3): 

    Pesquisa jurídica, estruturação de documentos, sumários internos, elaboração de rascunhos. Tudo, sempre, com revisão crítica, completa e pessoal do juiz. 

Sistemas aprovados apenas (art.º 8.º): 

    Só podem ser usados os sistemas disponibilizados pelo sistema de tramitação processual ou pelo próprio CSM (sujeitos a auditoria prévia). Fica terminantemente proibido copiar dados judiciais sensíveis para ferramentas comerciais abertas como o ChatGPT genérico. 

    O CSM vai ainda criar uma estrutura permanente de supervisão e acompanhamento do uso da IA (Secção III do Parecer). 

 

2 – Está em causa a transparência ou erosão da autoridade? 

    Por um lado, aquelas recomendações são um baluarte da independência judicial consagrada no art.º 203.º da Constituição da República Portuguesa (CRP). O juiz mantém o controlo total e, na nossa opinião, a transparência mitiga a opacidade algorítmica e contribui para o reforço da confiança dos cidadãos na justiça. 

    Por outro lado, contudo, a obrigatoriedade de “confissão” levanta questões delicadas que já estão a ser apontadas pela Ordem dos Advogados e por vários magistrados: 

Um juiz que declara “usei IA” não será automaticamente visto como menos “humano”, menos reflexivo ou menos imparcial? 

Esta exigência não cria um escrutínio público constante que, indiretamente, condiciona a liberdade de julgamento? 

Não estaremos a criar, na prática, dois tipos de juízes: os “tecnológicos” (que assumem o uso) e os “tradicionais” (que evitam a IA para não terem de explicar nada)?

A independência judicial, afinal, não inclui também o direito de o juiz trabalhar em silêncio, sem ter de justificar as suas ferramentas de trabalho?

 

Um martelo de juiz clássico em madeira e metal no momento em que atinge uma bancada de mármore. O impacto cria uma fenda profunda de onde emana uma luz azul brilhante composta por códigos binários, fragmentos de fotografias de rostos pixelizados e dados digitais. A bancada de mármore começa a desintegrar-se em cubos digitais. Tons de azul elétrico, cinza escuro e dourado. Estilo arte conceptual digital.
Quando o martelo da justiça enfrenta a fluidez e os riscos de manipulação do mundo digital

3 – O impacto real na prova: deepfakes [3], alucinações [4] e jurisprudência fantasma [5] 

[3] Quando referimos deepfakes, estamo-nos a referir a conteúdos digitais (vídeos, áudios ou imagens) que foram manipulados ou criados artificialmente para parecerem extremamente realistas. 

[4] Alucinações, de acordo com o glossário do Parecer do GAIA (página 16), são “informações fornecidas pelo sistema de IA que, embora redigidas de forma coerente e aparentemente lógica/correta, apresentam dados incorretos, tendenciosos ou completamente errados”. 

[5] Por jurisprudência fantasma pretendemos abranger a “citação de acórdãos sem existência real e produzidos por alucinação do algoritmo” [art.º 12.º n.º 2 al.ª a) do Parecer]. 

    O Parecer do GAIA é taxativo no sentido de que a IA nunca pode proceder à apreciação da prova. 

    Na prática, porém, o impacto é grande. 

    Os juízes passam a estar adstritos a um dever acrescido de vigilância quanto à relevância e fiabilidade de informações jurídicas provenientes de intervenientes desprovidos de patrocínio forense, bem como quanto a peças processuais que evidenciem indícios de recurso a sistemas de inteligência artificial [art.º 12.º n.ºs 1 e 2], designadamente: 

Citação de acórdãos sem existência real e produzidos por alucinação do algoritmo; [6]

Citação de legislação sem aplicação em território nacional;

O uso de expressões não correntes em português europeu;

Indícios de respostas do algoritmo a prompts

[6] Recordemos a notícia (consultável AQUI) relativa ao advogado que, no recurso interposto para o Tribunal da Relação de Guimarães, citou seis acórdãos de tribunais da Relação e do Supremo Tribunal de Justiça com um ponto em comum: a sua inexistência. 

    Nestes casos, o magistrado deve exercer um controlo humano eficaz – expressão repetida ao longo do documento – e, se necessário, exigir esclarecimentos ou validação humana das partes.

 

4 – Portugal na vanguarda europeia (mas com um toque mais exigente) 

    Este conjunto de recomendações não é uma novidade no espaço europeu. 

    O Regulamento IA da União Europeia (2024/1689), de 13 de Junho de 2024 [7], classifica o uso de IA na justiça como “alto risco”, exigindo precisamente transparência e controlo humano – o que o CSM fez. 

[6] Acedido e consultado AQUI em 23/04/2026. 

    A Comissão Europeia para a Eficiência da Justiça (CEPEJ) do Conselho da Europa publicou em Dezembro de 2025 diretrizes idênticas (CONSULTAR). Espanha tem a Instrucción 2/2026 do Consejo General del Poder Judicial, praticamente igual (VER). França, Alemanha e Itália optaram por modelos mais flexíveis ou por proibições pontuais. 

    O Parecer do GAIA distingue-se, no contexto europeu, por consagrar a obrigatoriedade de declaração expressa do recurso a inteligência artificial na própria decisão judicial. É uma solução mais exigente do que a seguida pela maioria dos Estados-Membros. E pode ser a nossa maior força… ou o nosso calcanhar de Aquiles…

 

5 – Os riscos que se avizinham: 

    Num contexto em que a morosidade da justiça é reiteradamente apontada como uma das suas fragilidades estruturais, introduz-se agora um novo factor suscetível de a agravar. 

    Já se anteveem arguições no sentido de que a omissão de declaração, pelo juiz, viola o direito a uma decisão fundamentada e transparente, isto é, de que a opacidade quanto ao eventual recurso a IA compromete o exame crítico da prova e da fundamentação, em particular quando se suscitem dúvidas quanto à ocorrência de “alucinações” ou à inexistência de revisão humana [art.ºs 374.º n.º 2, 379.º n.º 1 al.ª a) e art.º 410.º n.º 2, todos do CPP]. 

    É também previsível que, no âmbito do direito de defesa e do contraditório se multipliquem requerimentos a pedir esclarecimento sobre o uso de IA (art.ºs 61.º e 98.º, ambos do CPP). 

    Prevê-se igualmente o aumento do número de queixas disciplinares. [7]

[7] Recorde-se o caso dos três juízes desembargadores do Tribunal da Relação de Lisboa, acusados de utilização de IA em acórdão, por referência a legislação e jurisprudência inexistentes (consultar AQUI). 

    Paradoxalmente, a medida destinada a modernizar a justiça pode, num primeiro momento, contribuir para a sua maior lentidão.

 

6 – Conclusão: Portugal está realmente preparado para a era da IA na justiça? 

    As recomendações do GAIA/CSM representam um avanço significativo e ponderado, colocando Portugal em linha com as mais recentes orientações europeias. Este enquadramento reafirma o primado do “juiz humano” na decisão jurisdicional, reservando à inteligência artificial um papel estritamente instrumental e de apoio, contribuindo, assim, para prevenir uma utilização desregulada destas tecnologias. 

    Contudo, a eficácia desta transição não se esgota no plano teórico-normativo. O sucesso da reforma depende, em larga medida, de três pilares essenciais: a formação especializada dos magistrados; a implementação de infraestruturas tecnológicas seguras do ponto de vista cibernético; e o reforço de um verdadeiro dever de transparência

    Este último aspecto traduz uma alteração relevante de paradigma: a indicação do recurso a sistemas de apoio à decisão deixa de ser uma mera prática de prudência ou de cortesia técnica, passando a assumir-se como um elemento estrutural com relevância processual. 

    Em última análise, a integração da inteligência artificial vem alterar a própria fisionomia do acto de julgar. Neste contexto, a transparência no recurso a estas ferramentas assume-se como um novo elemento de garantia da confiança pública, assegurando que a tecnologia serve a justiça sem pôr em causa a independência do julgador nem a dimensão humana da decisão.


Aproveite para deixar um comentário sobre o artigo que acabou de ler e, se achar que pode ser útil a outras pessoas, partilhe-o.  ↓ ↓

__________________________________________________________
AVISO: Todo o conteúdo deste texto encontra-se protegido por Direitos de Autor, sendo expressamente proibida a sua cópia, reprodução, difusão ou transmissão, utilização, modificação, venda, publicação, distribuição ou qualquer outro uso, total ou parcial, comercial ou não comercial, quaisquer que sejam os meios utilizados, salvo, com a concordância do seu autor, Paulo Alexandre Fernandes Soares, ou então, desde que claramente identificada a sua origem, ao abrigo do direito de citação.

Sem comentários:

Enviar um comentário