Falha no LangChain Core expõe dados sigilosos por injeção de serialização

Tipo principal do conteúdo: Cibersegurança
Uma vulnerabilidade crítica foi identificada no LangChain Core, componente central do ecossistema LangChain utilizado para construir aplicações baseadas em grandes modelos de linguagem (LLMs). Catalogada como CVE-2025-68664 e apelidada de LangGrinch, a falha permite que agentes maliciosos explorem funções de serialização do pacote Python, especialmente dumps() e dumpd(), para injetar objetos manipulados e acessar informações sensíveis, como segredos de ambiente, ou até influenciar respostas dos modelos por meio de prompt injection.
O problema técnico reside na forma como o LangChain Core lida com a serialização e desserialização de dicionários que contêm a chave interna “lc”. Essa chave é utilizada pelo framework para marcar objetos serializados, mas, quando presente em dados controlados pelo usuário, pode ser interpretada como um objeto legítimo do LangChain durante a desserialização. Isso abre caminho para a execução de código não autorizado, extração de segredos e manipulação de fluxos de orquestração de LLMs, principalmente quando opções como “secrets_from_env” estavam habilitadas por padrão.
A resposta técnica ao incidente envolveu a implementação de novos padrões restritivos nas funções de carregamento, como a introdução do parâmetro “allowed_objects”, que limita as classes permitidas na serialização e desserialização. Além disso, o uso de templates Jinja2 foi bloqueado por padrão e a extração automática de segredos do ambiente foi desativada. A vulnerabilidade afeta versões específicas do langchain-core e também foi identificada em pacotes JavaScript do LangChain, sob o CVE-2025-68665.
Especialistas recomendam a atualização imediata para as versões corrigidas, destacando que o vetor de ataque mais comum ocorre por meio de campos de resposta dos LLMs, como additional_kwargs ou response_metadata, frequentemente manipulados via prompt injection. O caso evidencia a importância de tratar toda saída de modelos de linguagem como entrada não confiável, reforçando a necessidade de práticas robustas de segurança em aplicações de IA.
Fonte original: thehackernews.com
Acessar publicação original
Resumo editorial criado automaticamente pela Eletrônica Americana com base em fontes internacionais públicas, com finalidade informativa.



