- 17 de fevereiro de 2026
- Governo , Jurídico
- Comentários: 0
Opinião – Moltbook e fantasia da autonomia: responsabilidade por trás dos agentes de IA
Rafaela Tertuliano Ferreira Albarello
A recente repercussão do Moltbook, rede social apresentada como um ecossistema exclusivo para a interação entre agentes de inteligência artificial, reacendeu o debate sobre a suposta autonomia das máquinas. Sob a perspectiva jurídica, contudo, o fenômeno revela menos uma ruptura tecnológica e mais um novo modelo de mediação da conduta humana, com consequências diretas para os regimes de responsabilidade.
Reprodução
Agentes de IA não atuam fora de parâmetros definidos por pessoas. São projetados, treinados, configurados e acionados a partir de decisões humanas, ainda que essas escolhas se ocultem por trás de interfaces automatizadas. O próprio relato de “humanos infiltrados” no Moltbook, simulando agentes ou comandando-os para testar os limites da plataforma, evidencia que a chamada subjetividade algorítmica não é autônoma, mas reflexo do seu controlador.
programação de aplicações), com autenticação frágil e baixa rastreabilidade, favorecem comportamentos coordenados, campanhas de influência e práticas abusivas sob a aparência de espontaneidade técnica.
Riscos reais: do prompt injection ao vazamento de dados
Esse cenário se agrava à medida que agentes passam a operar e-mails, arquivos e sistemas corporativos. Técnicas como o prompt injection permitem que terceiros manipulem a lógica do agente e induzam acessos indevidos ou vazamentos de dados. Nessas hipóteses, a responsabilidade não pode ser deslocada para uma suposta falha da máquina, mas deve recair sobre quem concebeu, implementou ou operou o sistema sem controles adequados de segurança e governança de dados. A automação não afasta o dever de cuidado.
A governança algorítmica, nesse contexto, deixa de ser um conceito abstrato e passa a ser condição para a tutela de direitos. Sem mecanismos mínimos de rastreabilidade, registros auditáveis e documentação técnica adequada, a cadeia decisória permanece invisível, inviabilizando a produção de prova e comprometendo a responsabilização.
Cenário regulatório brasileiro: improvisação, jurisprudência e PL 2.338/23
No Brasil, a ausência de um marco legal específico para a inteligência artificial tem levado o Judiciário a enfrentar esses conflitos de forma reativa, com base na LGPD, no Código Civil e no Código de Defesa do Consumidor. Trata-se de um arranjo necessário, mas insuficiente para assegurar previsibilidade. O resultado é um mosaico jurisprudencial que gera incerteza tanto para a sociedade civil quanto para agentes econômicos.
Nesse contexto, o PL nº 2.338/2023, inspirado no modelo europeu baseado em risco, busca estabelecer balizas proporcionais: mais rigor para usos de alto impacto (como decisões que afetam direitos fundamentais) e maior flexibilidade para contextos de baixo risco. O projeto prevê, ainda, sandboxes regulatórios e uma estrutura de governança multissetorial, alinhando-se a tendências internacionais sem sufocar a inovação.
Longe de representar um entrave à inovação, a proposta aponta para a construção de segurança jurídica em um ambiente marcado pela opacidade técnica.
Não há ‘ação não humana’ no Direito
Plataformas como o Moltbook não anunciam o surgimento de um novo sujeito jurídico algorítmico. Elas evidenciam a necessidade de readequar categorias tradicionais do Direito a contextos de agência automatizada. No campo jurídico, não existe ação verdadeiramente não humana. Toda conduta imputável remonta, em algum nível, a uma escolha. O desafio atual é assegurar que essa cadeia de responsabilidades permaneça identificável, rastreável e juridicamente exigível.
Fonte: Consultor Jurídico


