![]() |
| A nova face de Témis: será o algoritmo o novo fiel da balança? |
Imaginem estarem a ler uma sentença ou acórdão de um tribunal e, no rodapé, leem a seguinte frase:
“Esta decisão foi produzida com o auxílio de Inteligência Artificial.”
Pode parecer o guião de um episódio de “Black Mirror”, mas será a nova realidade da justiça em Portugal. No passado dia 8 de Abril de 2026, o Conselho Superior da Magistratura (CSM) aprovou um conjunto de recomendações propostas pelo Grupo de Acompanhamento da Inteligência Artificial (GAIA). [1]
[1] As recomendações poderão ser consultadas no Parecer n.º 2025/GAVPM/5469, de 23 de Fevereiro de 2026, acedido e consultado AQUI em 18/04/2026.
O objetivo é enquadrar, disciplinar e tornar transparente o uso de ferramentas de inteligência artificial na função jurisdicional.
Ao lermos as recomendações do GAIA, logo concluímos que a inteligência artificial pode entrar no tribunal, mas nunca ocupar a cadeira do juiz. E há um pormenor que muda tudo, o juiz deve declarar expressamente se a utilizou...
Mas será que estas recomendações protegem a independência judicial ou, pelo contrário, a comprometem?
1 – O que dizem exatamente as recomendações do GAIA?
[2] Doravante, sempre que um artigo vier desacompanhado de qualquer referência legislativa, refere-se ao Parecer do Gaia.
→ Caráter exclusivamente auxiliar:
A IA nunca pode substituir o juiz na tomada de decisões, na valoração de factos e provas ou na interpretação e aplicação do direito. O controlo humano deve ser “eficaz e efetivo” (princípio da não substituição).
→ Obrigação de revelação/transparência:
O uso de IA deve ser expressamente declarado na decisão judicial, podendo tal declaração restringir-se ao seguinte (art.º 10.º n.º 2):
“Decisão produzida com o auxílio de sistema de IA, de acordo com as recomendações do CSM. Integralmente revisto pelo signatário.”
→ Responsabilidade 100% do juiz:
Mesmo que a IA tenha sido usada para pesquisa, organização de informação ou elaboração de minutas, o magistrado continua a ser o único e pleno responsável pela decisão.
→ Utilizações permitidas (art.º 5.º n.º 3):
Pesquisa jurídica, estruturação de documentos, sumários internos, elaboração de rascunhos. Tudo, sempre, com revisão crítica, completa e pessoal do juiz.
→ Sistemas aprovados apenas (art.º 8.º):
Só podem ser usados os sistemas disponibilizados pelo sistema de tramitação processual ou pelo próprio CSM (sujeitos a auditoria prévia). Fica terminantemente proibido copiar dados judiciais sensíveis para ferramentas comerciais abertas como o ChatGPT genérico.
O CSM vai ainda criar uma estrutura permanente de supervisão e acompanhamento do uso da IA (Secção III do Parecer).
2 – Está em causa a transparência ou erosão da autoridade?
Por outro lado, contudo, a obrigatoriedade de “confissão” levanta questões delicadas que já estão a ser apontadas pela Ordem dos Advogados e por vários magistrados:
→ Um juiz que declara “usei IA” não será automaticamente visto como menos “humano”, menos reflexivo ou menos imparcial?
→ Esta exigência não cria um escrutínio público constante que, indiretamente, condiciona a liberdade de julgamento?
→ Não estaremos a criar, na prática, dois tipos de juízes: os “tecnológicos” (que assumem o uso) e os “tradicionais” (que evitam a IA para não terem de explicar nada)?
→ A independência judicial, afinal, não inclui também o direito de o juiz trabalhar em silêncio, sem ter de justificar as suas ferramentas de trabalho?
![]() |
| Quando o martelo da justiça enfrenta a fluidez e os riscos de manipulação do mundo digital |
3 – O impacto real na prova: deepfakes [3], alucinações [4] e jurisprudência fantasma [5]
[3] Quando referimos deepfakes, estamo-nos a referir a conteúdos digitais (vídeos, áudios ou imagens) que foram manipulados ou criados artificialmente para parecerem extremamente realistas.
[4] Alucinações, de acordo com o glossário do Parecer do GAIA (página 16), são “informações fornecidas pelo sistema de IA que, embora redigidas de forma coerente e aparentemente lógica/correta, apresentam dados incorretos, tendenciosos ou completamente errados”.
[5] Por jurisprudência fantasma pretendemos abranger a “citação de acórdãos sem existência real e produzidos por alucinação do algoritmo” [art.º 12.º n.º 2 al.ª a) do Parecer].
O Parecer do GAIA é taxativo no sentido de que a IA nunca pode proceder à apreciação da prova.
Na prática, porém, o impacto é grande.
Os juízes passam a estar adstritos a um dever acrescido de vigilância quanto à relevância e fiabilidade de informações jurídicas provenientes de intervenientes desprovidos de patrocínio forense, bem como quanto a peças processuais que evidenciem indícios de recurso a sistemas de inteligência artificial [art.º 12.º n.ºs 1 e 2], designadamente:
→ Citação de acórdãos sem existência real e produzidos por alucinação do algoritmo; [6]
→ Citação de legislação sem aplicação em território nacional;
→ O uso de expressões não correntes em português europeu;
→ Indícios de respostas do algoritmo a prompts.
[6] Recordemos a notícia (consultável AQUI) relativa ao advogado que, no recurso interposto para o Tribunal da Relação de Guimarães, citou seis acórdãos de tribunais da Relação e do Supremo Tribunal de Justiça com um ponto em comum: a sua inexistência.
Nestes casos, o magistrado deve
exercer um controlo humano eficaz – expressão repetida ao longo do documento –
e, se necessário, exigir esclarecimentos ou validação humana das partes.
4 – Portugal na vanguarda europeia (mas com um toque mais exigente)
Este conjunto de recomendações não é uma novidade no espaço europeu.
O Regulamento IA da União Europeia (2024/1689), de 13 de Junho de 2024 [7], classifica o uso de IA na justiça como “alto risco”, exigindo precisamente transparência e controlo humano – o que o CSM fez.
[6] Acedido e consultado AQUI em 23/04/2026.
A Comissão Europeia para a Eficiência da Justiça (CEPEJ) do Conselho da Europa publicou em Dezembro de 2025 diretrizes idênticas (CONSULTAR). Espanha tem a Instrucción 2/2026 do Consejo General del Poder Judicial, praticamente igual (VER). França, Alemanha e Itália optaram por modelos mais flexíveis ou por proibições pontuais.
O Parecer do GAIA distingue-se,
no contexto europeu, por consagrar a obrigatoriedade de declaração expressa do
recurso a inteligência artificial na própria decisão judicial. É uma solução
mais exigente do que a seguida pela maioria dos Estados-Membros. E pode ser a
nossa maior força… ou o nosso calcanhar de Aquiles…
5 – Os riscos que se avizinham:
Num contexto em que a morosidade da justiça é reiteradamente apontada como uma das suas fragilidades estruturais, introduz-se agora um novo factor suscetível de a agravar.
Já se anteveem arguições no sentido de que a omissão de declaração, pelo juiz, viola o direito a uma decisão fundamentada e transparente, isto é, de que a opacidade quanto ao eventual recurso a IA compromete o exame crítico da prova e da fundamentação, em particular quando se suscitem dúvidas quanto à ocorrência de “alucinações” ou à inexistência de revisão humana [art.ºs 374.º n.º 2, 379.º n.º 1 al.ª a) e art.º 410.º n.º 2, todos do CPP].
É também previsível que, no âmbito do direito de defesa e do contraditório se multipliquem requerimentos a pedir esclarecimento sobre o uso de IA (art.ºs 61.º e 98.º, ambos do CPP).
Prevê-se igualmente o aumento do número
de queixas disciplinares. [7]
[7] Recorde-se o caso dos três juízes desembargadores do Tribunal da Relação de Lisboa, acusados de utilização de IA em acórdão, por referência a legislação e jurisprudência inexistentes (consultar AQUI).
Paradoxalmente, a medida
destinada a modernizar a justiça pode, num primeiro momento, contribuir para a
sua maior lentidão.
6 – Conclusão: Portugal está realmente preparado para a era da IA na justiça?
As recomendações do GAIA/CSM representam um avanço significativo e ponderado, colocando Portugal em linha com as mais recentes orientações europeias. Este enquadramento reafirma o primado do “juiz humano” na decisão jurisdicional, reservando à inteligência artificial um papel estritamente instrumental e de apoio, contribuindo, assim, para prevenir uma utilização desregulada destas tecnologias.
Contudo, a eficácia desta transição não se esgota no plano teórico-normativo. O sucesso da reforma depende, em larga medida, de três pilares essenciais: a formação especializada dos magistrados; a implementação de infraestruturas tecnológicas seguras do ponto de vista cibernético; e o reforço de um verdadeiro dever de transparência.
Este último aspecto traduz uma alteração relevante de paradigma: a indicação do recurso a sistemas de apoio à decisão deixa de ser uma mera prática de prudência ou de cortesia técnica, passando a assumir-se como um elemento estrutural com relevância processual.
Em última análise, a integração
da inteligência artificial vem alterar a própria fisionomia do acto de julgar.
Neste contexto, a transparência no recurso a estas ferramentas assume-se como
um novo elemento de garantia da confiança pública, assegurando que a tecnologia
serve a justiça sem pôr em causa a independência do julgador nem a dimensão
humana da decisão.
AVISO: Todo o conteúdo deste texto encontra-se protegido por Direitos de Autor, sendo expressamente proibida a sua cópia, reprodução, difusão ou transmissão, utilização, modificação, venda, publicação, distribuição ou qualquer outro uso, total ou parcial, comercial ou não comercial, quaisquer que sejam os meios utilizados, salvo, com a concordância do seu autor, Paulo Alexandre Fernandes Soares, ou então, desde que claramente identificada a sua origem, ao abrigo do direito de citação.




