(Alerta) Salt Security descobre e corrige falhas de segurança nas extensões ChatGPT

A Salt Security, empresa líder em segurança de APIs, lançou hoje um novo levantamento de ameaças do Salt Labs, sua divisão de pesquisa, destacando falhas críticas de segurança nos plugins do ChatGPT que geram novos riscos para as empresas. Os plugins fornecem chatbots de IA, como acesso ao ChatGPT, e permissões para executar tarefas em nome dos usuários em sites de terceiros, tais como recuperar dados do Google Drive de uma organização ou confirmar código em repositórios do GitHub.

Essas falhas de segurança introduzem um novo vetor de ataque e podem permitir que agentes mal-intencionados obtenham controle da conta de uma organização em sites de terceiros ou viabilizem o acesso a Informações Pessoais Identificáveis (PII) e a outros dados confidenciais do usuário armazenados em aplicativos de terceiros

Os plugins do ChatGPT ampliam as habilidades do modelo, permitindo que o chatbot interaja com serviços externos. A integração desses plugins de terceiros melhora significativamente a aplicabilidade do ChatGPT em vários domínios, desde o desenvolvimento de software e gerenciamento de dados até ambientes educacionais e de negócios. Quando as organizações aproveitam esses plug-ins, elas subsequentemente dão permissão ao ChatGPT para enviar dados confidenciais de uma organização para um site de terceiros e permitir o acesso a contas externas privadas. Em novembro de 2023, o ChatGPT introduziu um novo recurso, GPTs, um conceito semelhante aos plugins. GPTs são versões personalizadas do ChatGPT que qualquer desenvolvedor pode publicar, e contêm uma opção chamada “Ação” que os conecta com o mundo exterior. Os GPTs apresentam riscos de segurança semelhantes aos dos plugins.

A equipe do Salt Labs descobriu três tipos diferentes de vulnerabilidades nos plug-ins do ChatGPT. O primeiro deles foi notado dentro do próprio ChatGPT quando os usuários instalam novos plugins. Durante esse processo, o ChatGPT redireciona um usuário para o site do plugin para receber um código a ser aprovado por esse indivíduo. Quando o ChatGPT recebe o código aprovado de um usuário, ele instala automaticamente o plugin e pode interagir com esse plugin em nome do usuário. Os pesquisadores descobriram que um invasor poderia explorar essa função para, em vez disso, entregar aos usuários uma aprovação de código com um novo plug-in malicioso, permitindo que um invasor instalasse automaticamente suas credenciais na conta de uma vítima. Qualquer mensagem que o usuário escreva no ChatGPT pode ser encaminhada para um plugin, o que significa que um invasor teria acesso a uma série de informações proprietárias.

A segunda vulnerabilidade foi descoberta dentro do PluginLab (pluginlab.ai), um framework que desenvolvedores e empresas usam para desenvolver plugins para o ChatGPT. Durante a instalação, os pesquisadores do Salt Labs descobriram que o PluginLab não autenticou corretamente as contas de usuário, o que teria permitido que um possível invasor inserisse outro ID de usuário e obtivesse um código que representasse a vítima, levando assim à tomada de conta no plugin. Um dos plugins afetados é o “AskTheCode”, que se integra entre o ChatGPT e o GitHub, ou seja, ao utilizar a vulnerabilidade, um invasor pode obter acesso à conta do GitHub de uma vítima.

A terceira e última vulnerabilidade descoberta em vários plugins foi a manipulação de redirecionamento OAuth (Open Authorization). Semelhante ao pluginlab.ai, é uma tomada de conta no próprio plugin ChatGPT. Nesta vulnerabilidade, um invasor pode enviar um link para a vítima. Vários plug-ins não validam as URLs, o que significa que um invasor pode inserir uma URL mal-intencionada e roubar credenciais de usuário. Como no caso do pluginlab.ai, um invasor teria as credenciais (código) da vítima e poderia assumir sua conta da mesma maneira.

Ao descobrir as vulnerabilidades, os pesquisadores do Salt Labs seguiram práticas de divulgação coordenadas com a OpenAI e fornecedores terceirizados, e todos os problemas foram remediados rapidamente, sem evidências de que essas falhas haviam sido exploradas.

“Ferramentas de IA generativa como o ChatGPT rapidamente cativaram a atenção de milhões em todo o mundo, por seu potencial de melhorar drasticamente a eficiência tanto nas operações de negócios quanto na vida humana diária”, disse Yaniv Balmas, vice-presidente de pesquisa da Salt Security. “À medida que mais organizações aproveitam esse tipo de tecnologia, os invasores estão concentrando seus esforços, encontrando maneiras de explorar essas ferramentas e, posteriormente, obter acesso a dados confidenciais. Nossas recentes descobertas de vulnerabilidade no ChatGPT ilustram a importância de proteger os plug-ins dentro dessa tecnologia para garantir que os cibercriminosos não possam acessar ativos críticos de negócios e executar aquisições de contas.”

De acordo com o Relatório sobre o Estado da Segurança de API do Salt Labs* do primeiro trimestre 2023, houve um aumento de 400% de invasores exclusivos visando clientes da Salt. A Plataforma de Segurança de API da Salt permite que as empresas identifiquem riscos e vulnerabilidades em APIs antes que elas sejam exploradas por invasores, incluindo aqueles listados no OWASP API Security Top 10. A plataforma protege as APIs em todo o seu ciclo de vida – nas fases de criação, implantação e tempo de execução – utilizando big data em escala de nuvem combinado com IA e ML para estabelecer a linha de base de milhões de usuários e APIs. Ao fornecer insights baseados em contexto em todo o ciclo de vida da API, a Salt permite que os usuários detectem a atividade de reconhecimento de agentes mal-intencionados e os bloqueiem antes que possam atingir seu objetivo.

Para saber mais sobre a Salt Security ou para solicitar uma demonstração, visite https://content.salt.security/demo.html.