{"id":1848,"date":"2025-05-26T15:49:47","date_gmt":"2025-05-26T18:49:47","guid":{"rendered":"https:\/\/news.ivy.com.br\/?p=1848"},"modified":"2025-09-29T11:10:42","modified_gmt":"2025-09-29T14:10:42","slug":"alucinacao-em-llms-voltados-a-codigo-representa-ameaca-critica-a-integridade-da-cadeia-de-suprimentos-de-software","status":"publish","type":"post","link":"https:\/\/news.ivy.com.br\/index.php\/2025\/05\/26\/alucinacao-em-llms-voltados-a-codigo-representa-ameaca-critica-a-integridade-da-cadeia-de-suprimentos-de-software\/","title":{"rendered":"\u201cAlucina\u00e7\u00e3o\u201d em LLMs voltados a c\u00f3digo representa amea\u00e7a cr\u00edtica \u00e0 integridade da cadeia de suprimentos de software"},"content":{"rendered":"\n<p>A integra\u00e7\u00e3o com modelos de linguagem de grande escala (LLMs) ao desenvolvimento de software trouxe avan\u00e7os significativos em produtividade, agilidade e at\u00e9 mesmo democratiza\u00e7\u00e3o do acesso \u00e0 programa\u00e7\u00e3o. Contudo, ao mesmo tempo em que esses modelos automatizam tarefas antes manuais, tamb\u00e9m introduzem novos vetores de risco \u2014 alguns dos quais ainda pouco compreendidos e subestimados.<\/p>\n\n\n\n<p>Um desses riscos acaba de ser exposto com profundidade t\u00e9cnica por um&nbsp;<a href=\"https:\/\/www.linkedin.com\/redir\/redirect?url=https%3A%2F%2Farxiv%2Eorg%2Fpdf%2F2406%2E10279&amp;urlhash=Oyxv&amp;trk=article-ssr-frontend-pulse_little-text-block\" target=\"_blank\" rel=\"noreferrer noopener\">estudo conduzido por pesquisadores das universidades do Texas, Oklahoma e Virginia Tech<\/a>, que revela um fen\u00f4meno emergente: as chamadas alucina\u00e7\u00f5es de pacotes (<em>package hallucinations<\/em>). Essa nova categoria de falha representa um risco real \u00e0 integridade da cadeia de suprimentos de software e est\u00e1 diretamente ligada ao uso de LLMs para gera\u00e7\u00e3o automatizada de c\u00f3digo.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Entendendo o fen\u00f4meno: o que s\u00e3o alucina\u00e7\u00f5es de pacotes?<\/h3>\n\n\n\n<p>Ao gerar trechos de c\u00f3digo, muitos LLMs &#8211; especialmente quando operando com temperaturas mais altas, prompts amb\u00edguos ou sem mecanismos de valida\u00e7\u00e3o &#8211; tendem a sugerir a instala\u00e7\u00e3o de bibliotecas e pacotes que simplesmente n\u00e3o existem nos reposit\u00f3rios oficiais como o PyPI (Python) ou o npm (JavaScript).<\/p>\n\n\n\n<p>O estudo analisou 576 mil amostras de c\u00f3digo geradas por 16 modelos diferentes, entre eles GPT-4, GPT-3.5, CodeLlama, DeepSeek, WizardCoder e outros. A taxa m\u00e9dia de alucina\u00e7\u00f5es identificadas foi de:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>5,2% para modelos comerciais, como GPT-4 e GPT-3.5<\/li>\n\n\n\n<li>21,7% para modelos open source, com destaque negativo para variantes do CodeLlama<\/li>\n<\/ul>\n\n\n\n<p>No total, foram catalogados 205.474 pacotes alucinados \u00fanicos \u2014 nomes que n\u00e3o correspondem a bibliotecas reais, mas que podem ser registrados por atacantes e utilizados para distribuir malware, configurando uma nova classe de ataque de confus\u00e3o de pacotes (<em>package confusion attack<\/em>).<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Um vetor de ataque trivial, mas altamente eficaz<\/h3>\n\n\n\n<p>Essa amea\u00e7a se torna cr\u00edtica porque explora uma brecha na confian\u00e7a excessiva dos desenvolvedores nos resultados produzidos por LLMs. O vetor \u00e9 simples:<\/p>\n\n\n\n<ol class=\"wp-block-list\">\n<li>O LLM gera c\u00f3digo que referencia um pacote inexistente.<\/li>\n\n\n\n<li>O atacante registra esse nome no reposit\u00f3rio oficial, com c\u00f3digo malicioso.<\/li>\n\n\n\n<li>O desenvolvedor, confiando no modelo, instala o pacote.<\/li>\n\n\n\n<li>O c\u00f3digo malicioso se propaga para o ambiente, o reposit\u00f3rio ou o produto final.<\/li>\n<\/ol>\n\n\n\n<p>Ao contr\u00e1rio dos ataques tradicionais de&nbsp;<em>typosquatting<\/em>&nbsp;ou&nbsp;<em>brandjacking<\/em>, esse tipo de ataque n\u00e3o depende de erro humano. Ele parte diretamente da sugest\u00e3o do modelo \u2014 um agente considerado \u201cde confian\u00e7a\u201d na nova cadeia de desenvolvimento assistida por IA.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Uma falha sist\u00eamica e persistente nos modelos<\/h3>\n\n\n\n<p>O estudo mostra ainda que essas alucina\u00e7\u00f5es n\u00e3o s\u00e3o incidentes aleat\u00f3rios, mas padr\u00f5es recorrentes:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Em 43% dos casos, o mesmo pacote alucinado foi gerado repetidamente ao submeter o mesmo prompt.<\/li>\n\n\n\n<li>Em 58% dos testes, as alucina\u00e7\u00f5es se repetiram mais de uma vez em 10 execu\u00e7\u00f5es com a mesma entrada.<\/li>\n\n\n\n<li>Modelos com maior \u201cverbosidade\u201d \u2014 que sugerem muitos pacotes \u2014 apresentaram correla\u00e7\u00e3o direta com taxas mais altas de alucina\u00e7\u00e3o.<\/li>\n<\/ul>\n\n\n\n<p>E o mais preocupante: muitos modelos n\u00e3o conseguem distinguir suas pr\u00f3prias alucina\u00e7\u00f5es. Em testes de detec\u00e7\u00e3o, apenas modelos como GPT-4 e DeepSeek apresentaram acur\u00e1cia acima de 75% ao tentar classificar seus pr\u00f3prios pacotes gerados como v\u00e1lidos ou n\u00e3o.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">E as estrat\u00e9gias de mitiga\u00e7\u00e3o?<\/h3>\n\n\n\n<p>A boa not\u00edcia \u00e9 que o estudo tamb\u00e9m explorou caminhos para mitiga\u00e7\u00e3o. Os autores testaram tr\u00eas abordagens principais:<\/p>\n\n\n\n<ol class=\"wp-block-list\">\n<li><strong>RAG (Retrieval-Augmented Generation)\u00a0<\/strong>Enriquecer o prompt com pacotes reais, extra\u00eddos de bases confi\u00e1veis, antes da gera\u00e7\u00e3o de c\u00f3digo. Redu\u00e7\u00e3o de at\u00e9 25% nas alucina\u00e7\u00f5es.<\/li>\n\n\n\n<li><strong>Auto-refinamento iterativo\u00a0<\/strong>Ap\u00f3s a gera\u00e7\u00e3o, o modelo \u00e9 instru\u00eddo a revisar e substituir pacotes inv\u00e1lidos. Efetivo em modelos com alta capacidade de autorrevis\u00e3o (ex: DeepSeek).<\/li>\n\n\n\n<li><strong>Fine-tuning supervisionado com dados filtrados\u00a0<\/strong>Reeducar o modelo com dados validados, removendo respostas que inclu\u00edam pacotes fict\u00edcios. Essa abordagem reduziu as alucina\u00e7\u00f5es em at\u00e9 83%, mas com perda significativa de qualidade do c\u00f3digo em benchmarks como o HumanEval.<\/li>\n<\/ol>\n\n\n\n<h3 class=\"wp-block-heading\">O que isso nos ensina?<\/h3>\n\n\n\n<p>Estamos diante de&nbsp;<strong>uma mudan\u00e7a de paradigma na seguran\u00e7a da cadeia de suprimentos de software<\/strong>. O uso de LLMs exige a reinterpreta\u00e7\u00e3o de pr\u00e1ticas de confian\u00e7a, valida\u00e7\u00e3o e controle de depend\u00eancias. A ideia de que \u201cse o modelo sugeriu, deve ser seguro\u201d j\u00e1 n\u00e3o se sustenta tecnicamente \u2014 e pode custar caro.<\/p>\n\n\n\n<p>A seguran\u00e7a da cadeia de suprimentos de software n\u00e3o \u00e9 mais uma preocupa\u00e7\u00e3o apenas do time de DevSecOps. Ela se tornou uma responsabilidade compartilhada entre engenharia, arquitetura, produto e lideran\u00e7a. Por isso, temos investido em pr\u00e1ticas estruturadas e plataformas especializadas para lidar com esse novo cen\u00e1rio.<\/p>\n\n\n\n<p>O&nbsp;<strong>DevSecure Hub<\/strong>, nosso servi\u00e7o de seguran\u00e7a, entrega uma abordagem proativa e cont\u00ednua para elevar a maturidade de desenvolvimento seguro, especialmente em ambientes complexos e regulados, como, por exemplo, o setor de sa\u00fade.<\/p>\n\n\n\n<p>Entre as solu\u00e7\u00f5es oferecidas, destacamos o&nbsp;<strong>Security Champion<\/strong>: um especialista de seguran\u00e7a alocado junto \u00e0 equipe de desenvolvimento, com atua\u00e7\u00e3o pr\u00e1tica no dia a dia do time. Esse profissional atua na raiz do problema \u2014 promovendo a implementa\u00e7\u00e3o de boas pr\u00e1ticas, orientando corre\u00e7\u00f5es e evitando a reincid\u00eancia de vulnerabilidades com foco realista e colaborativo.<\/p>\n\n\n\n<p>Essa atua\u00e7\u00e3o \u00e9 complementada por:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Pentest Cont\u00ednuo<\/strong>, para detectar falhas antes que sejam exploradas;<\/li>\n\n\n\n<li><strong>Threat Modeling<\/strong>, para antecipar riscos no design das aplica\u00e7\u00f5es;<\/li>\n\n\n\n<li><strong>Relat\u00f3rios de Maturidade<\/strong>, que monitoram a evolu\u00e7\u00e3o da postura de seguran\u00e7a;<\/li>\n\n\n\n<li><strong>Treinamentos especializados<\/strong>, focados em capacitar times t\u00e9cnicos para reagir e prevenir ataques com autonomia.<\/li>\n<\/ul>\n\n\n\n<p>Se sua organiza\u00e7\u00e3o est\u00e1 explorando o uso de LLMs no desenvolvimento, ou busca evoluir sua maturidade em seguran\u00e7a de software de forma pr\u00e1tica, o Grupo Ivy pode ser seu parceiro estrat\u00e9gico.<\/p>\n\n\n\n<p>Me mande uma mensagem ou fale com nossos especialistas. Vamos juntos elevar o padr\u00e3o de confiabilidade dos seus sistemas \u2014 com intelig\u00eancia, agilidade e seguran\u00e7a desde a primeira linha de c\u00f3digo.<\/p>\n\n\n\n<p>Para finalizar, deixo aqui uma dica para quem quer ficar por dentro das novidades do mercado: o blog da Ivy. Acesse clicando&nbsp;<a href=\"https:\/\/www.linkedin.com\/redir\/redirect?url=https%3A%2F%2Fnews%2Eivy%2Ecom%2Ebr%2F&amp;urlhash=B8vA&amp;trk=article-ssr-frontend-pulse_little-text-block\" target=\"_blank\" rel=\"noreferrer noopener\">neste link<\/a>&nbsp;e veja as principais tend\u00eancias e opini\u00f5es de nossos players.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>A integra\u00e7\u00e3o com modelos de linguagem de grande escala (LLMs) ao desenvolvimento de software trouxe avan\u00e7os significativos em produtividade, agilidade e at\u00e9 mesmo democratiza\u00e7\u00e3o do acesso \u00e0 programa\u00e7\u00e3o. Contudo, ao mesmo tempo em que esses modelos automatizam tarefas antes manuais, tamb\u00e9m introduzem novos vetores de risco \u2014 alguns dos quais ainda pouco compreendidos e subestimados. Um desses riscos acaba de ser exposto com profundidade t\u00e9cnica por um&nbsp;estudo conduzido por pesquisadores das universidades do Texas, Oklahoma e Virginia Tech, que revela um fen\u00f4meno emergente: as chamadas alucina\u00e7\u00f5es de pacotes (package hallucinations). Essa nova categoria de falha representa um risco real \u00e0<\/p>\n","protected":false},"author":2,"featured_media":1849,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[53],"tags":[83,119,96,82],"class_list":["post-1848","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-tecnologia","tag-gestao","tag-ia","tag-inovacao","tag-tecnologia"],"_links":{"self":[{"href":"https:\/\/news.ivy.com.br\/index.php\/wp-json\/wp\/v2\/posts\/1848","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/news.ivy.com.br\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/news.ivy.com.br\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/news.ivy.com.br\/index.php\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/news.ivy.com.br\/index.php\/wp-json\/wp\/v2\/comments?post=1848"}],"version-history":[{"count":1,"href":"https:\/\/news.ivy.com.br\/index.php\/wp-json\/wp\/v2\/posts\/1848\/revisions"}],"predecessor-version":[{"id":1850,"href":"https:\/\/news.ivy.com.br\/index.php\/wp-json\/wp\/v2\/posts\/1848\/revisions\/1850"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/news.ivy.com.br\/index.php\/wp-json\/wp\/v2\/media\/1849"}],"wp:attachment":[{"href":"https:\/\/news.ivy.com.br\/index.php\/wp-json\/wp\/v2\/media?parent=1848"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/news.ivy.com.br\/index.php\/wp-json\/wp\/v2\/categories?post=1848"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/news.ivy.com.br\/index.php\/wp-json\/wp\/v2\/tags?post=1848"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}