Direito Penal, casos reais e os desafios do advogado criminalista na era da IA.
A inteligência artificial deixou de ser um tema futurista para se tornar parte concreta do cotidiano. Algoritmos A inteligência artificial já não é promessa de futuro. Ela decide rotas, recomenda diagnósticos, define prioridades, seleciona perfis e controla sistemas que interferem diretamente na vida das pessoas. Em muitos contextos, essas decisões ocorrem sem intervenção humana imediata e, em alguns casos, sem que sequer seja possível explicar com clareza o caminho lógico percorrido pelo algoritmo. Quando uma dessas decisões resulta em morte, lesão, discriminação ou outro dano penalmente relevante, o Direito Penal é convocado a responder a uma pergunta incômoda: quem deve ser responsabilizado criminalmente quando o “autor” do fato é uma máquina?
Esse debate é hoje inevitável para o advogado criminalista. Não se trata apenas de acompanhar tendências tecnológicas, mas de compreender como os fundamentos do Direito Penal são tensionados por sistemas que não pensam, não querem e não respondem moralmente, mas ainda assim produzem consequências gravíssimas no mundo real.
O Direito Penal foi feito para pessoas, não para algoritmos
O ponto de partida da análise é simples, mas decisivo. O Direito Penal moderno foi construído para julgar condutas humanas, baseadas em consciência, vontade e possibilidade de escolha. A noção de crime pressupõe ação ou omissão praticada por alguém que poderia agir de modo diverso. É a partir dessa premissa que se estruturam o dolo, a culpa e a culpabilidade.
A inteligência artificial rompe essa lógica. Sistemas baseados em aprendizagem de máquina não apenas executam comandos pré-definidos, mas aprendem com dados, ajustam comportamentos e tomam decisões que nem sempre são previsíveis ou controláveis por seus criadores ou usuários. Quando o resultado é lesivo, o modelo clássico de imputação penal passa a falhar, porque não há, ao menos de imediato, um sujeito humano claramente identificável como autor do fato.
Esse deslocamento do centro decisório é o núcleo do problema penal contemporâneo envolvendo a IA.
Casos reais mostram o impasse da imputação criminal
A dificuldade não é teórica. Em 2018, nos Estados Unidos, um veículo autônomo da Uber atropelou e matou a pedestre Elaine Herzberg, no Arizona. O sistema de inteligência artificial falhou em reconhecer corretamente a vítima e não reagiu a tempo. A decisão fatal foi, na prática, algorítmica. Ainda assim, o Direito Penal não encontrou espaço para imputar o fato à máquina. A responsabilização recaiu sobre a motorista humana de segurança, acusada de negligência por não intervir, enquanto a empresa não sofreu condenação criminal.
Situação semelhante ocorreu nos acidentes envolvendo o Boeing 737 MAX. O sistema automatizado MCAS assumiu o controle da aeronave com base em dados equivocados, contrariando a atuação dos pilotos e levando à morte de centenas de pessoas. Novamente, não se falou em crime cometido por um software. A resposta jurídica concentrou-se na responsabilização da pessoa jurídica, em razão de falhas de governança, ocultação de informações e decisões corporativas.
Esses episódios revelam um padrão: quando a inteligência artificial decide, o Direito Penal procura um humano ou uma empresa para ocupar o lugar do culpado, ainda que o vínculo entre a conduta humana e o resultado seja indireto, mediato ou discutível.
Quando a IA é apenas instrumento, a responsabilidade continua humana
Há situações em que a imputação penal não apresenta maiores dificuldades. Quando a inteligência artificial atua como mera ferramenta, executando comandos previsíveis ou sendo utilizada de forma ilícita por alguém, o crime continua sendo humano.
Se um programador insere deliberadamente funcionalidades criminosas, se um operador utiliza um sistema para fraudar, discriminar ou violar direitos, ou se um gestor ignora riscos evidentes e conhecidos, a inteligência artificial funciona apenas como meio de execução. Nesses casos, o Direito Penal aplica suas categorias tradicionais, discutindo dolo, culpa, nexo causal e dever de cuidado.
Para o advogado criminalista, esses cenários não diferem substancialmente de outros crimes praticados com auxílio de tecnologia. O desafio maior surge quando essa mediação humana deixa de ser clara.
A inteligência artificial autônoma e o vazio de imputação penal
O problema mais sensível aparece quando se admite a existência de inteligência artificial com alto grau de autonomia, capaz de aprender e decidir sem controle humano direto e sem previsibilidade razoável dos resultados. Nessa hipótese, a imputação penal enfrenta um verdadeiro impasse.
Punir o criador ou o usuário sem demonstração de dolo ou culpa concreta significaria instaurar uma forma de responsabilidade penal objetiva, incompatível com o modelo constitucional brasileiro. Ao mesmo tempo, punir a própria inteligência artificial é juridicamente inviável, pois a máquina não possui consciência, compreensão do ilícito nem capacidade de sofrer sanção penal com finalidade preventiva ou retributiva.
Forma-se, assim, um vazio de imputação penal, no qual há dano relevante, mas não há sujeito penalmente responsável nos moldes clássicos. Esse vazio explica por que, nos grandes casos envolvendo IA, o Direito Penal tem preferido soluções indiretas ou extrapenais.
A pessoa jurídica como resposta penal indireta
Diante dessa lacuna, ganha força a responsabilização da pessoa jurídica, especialmente quando a inteligência artificial é desenvolvida, explorada e utilizada no âmbito de uma atividade empresarial organizada. Essa solução já é conhecida em outros ramos, como o ambiental e o econômico, e tem sido empregada como resposta possível em cenários de alta complexidade tecnológica.
Ainda assim, trata-se de uma solução imperfeita. A responsabilização penal da empresa não elimina as dificuldades dogmáticas, apenas desloca o foco da máquina para a estrutura organizacional que a colocou em funcionamento. Para o advogado criminalista empresarial, isso amplia a importância da governança, do controle de riscos e da definição clara de responsabilidades internas.
Um olhar específico sobre o Projeto de Lei nº 2.338/2023 e seus reflexos penais
Embora o debate penal não dependa exclusivamente da legislação em discussão, é importante compreender em que medida o Projeto de Lei nº 2.338/2023 pode influenciar a responsabilidade criminal.
O projeto não cria crimes relacionados à inteligência artificial, nem reconhece personalidade penal à IA. Seu foco é regulatório, preventivo e civil-administrativo. Ainda assim, ele estabelece deveres claros de governança, avaliação de riscos, transparência e supervisão humana, especialmente para sistemas considerados de alto risco.
Esses deveres não geram, por si sós, responsabilidade penal automática. Contudo, podem influenciar a análise penal em casos concretos. O descumprimento consciente e relevante desses deveres pode servir como elemento para caracterizar culpa ou dolo eventual do criador ou do usuário, quando houver previsibilidade do resultado e possibilidade de intervenção humana. Por outro lado, o cumprimento rigoroso das exigências legais tende a fortalecer teses defensivas, demonstrando ausência de culpa penalmente relevante.
Quanto à própria inteligência artificial, o projeto é claro ao não tratá-la como sujeito de direito penal. Não há, portanto, qualquer base normativa para imputação criminal direta à IA.
O papel do advogado criminalista diante da decisão algorítmica
A expansão da inteligência artificial já impacta investigações criminais, perícias, sistemas de vigilância, reconhecimento facial e análise de dados. O risco de imputações penais baseadas mais no temor da tecnologia do que na demonstração concreta de culpa humana é real.
Nesse contexto, o advogado criminalista assume papel central. Cabe a ele questionar o nexo causal, exigir prova de previsibilidade e controle, diferenciar falha sistêmica de conduta humana culpável e impedir que o Direito Penal seja utilizado como resposta simbólica a problemas tecnológicos complexos.
Conclusão
A inteligência artificial desafia o Direito Penal porque desloca o centro da decisão para além do ser humano, sem oferecer um novo sujeito penalmente responsável. Os casos reais demonstram que, até o momento, o sistema jurídico responde com soluções indiretas, muitas vezes tensionando seus próprios fundamentos.
Não é legítimo punir sem culpa, nem atribuir crime a uma máquina incapaz de responder penalmente. Entre a omissão e o punitivismo apressado, o caminho mais compatível com o Estado de Direito é a cautela dogmática, a análise técnica e a atuação firme do advogado criminalista, que se torna peça-chave na defesa das garantias fundamentais em um mundo cada vez mais governado por decisões algorítmicas.
Para aprofundamento: https://dfj.emnuvens.com.br/dfj/article/view/1116
