Aplicativos de IA inseguros na Google Play Store estão expondo bilhões de registros, incluindo imagens pessoais, vídeos e dados de identidade. Uma investigação recente revela que muitas ferramentas de IA para dispositivos Android carecem de medidas básicas de segurança, colocando a privacidade do usuário em grave risco.
Violações de dados confirmadas em aplicativos populares
Pesquisadores de segurança cibernética identificaram vários aplicativos que vazam informações confidenciais do usuário. Um exemplo, “Video AI Art Generator & Maker”, deixou um intervalo do Google Cloud Storage configurado incorretamente, expondo 1,5 milhão de imagens de usuários, mais de 385.000 vídeos e milhões de arquivos gerados por IA – totalizando mais de 12 terabytes de dados acessíveis. O aplicativo tinha mais de 500.000 downloads no momento da descoberta.
Outro aplicativo, o IDMerit, vazou dados de conhecimento do seu cliente (KYC) de usuários em 25 países. As informações expostas incluíam nomes completos, endereços, datas de nascimento, identidades e detalhes de contato, totalizando mais de um terabyte de dados comprometidos. Ambos os desenvolvedores resolveram as vulnerabilidades após serem notificados.
Por que isso é importante: a ascensão de aplicativos de IA arriscados
A proliferação de aplicações de IA inseguras é uma preocupação crescente. Essas ferramentas geralmente lidam com dados de usuários altamente confidenciais, mas muitas operam sem salvaguardas adequadas. A tendência é impulsionada pela rápida expansão de ferramentas baseadas em IA e pela falta de práticas de segurança padronizadas.
Setenta e dois por cento das centenas de aplicativos do Google Play analisados pela Cybernews exibiam vulnerabilidades semelhantes. Um problema particularmente alarmante é a prática de “codificação secreta” – incorporando chaves de API, senhas e chaves de criptografia diretamente no código-fonte do aplicativo, tornando-os facilmente exploráveis.
O que os usuários devem saber
A facilidade com que ocorrem estas fugas de dados sublinha um problema sistémico: muitos criadores de IA dão prioridade à rapidez de colocação no mercado em detrimento da segurança. Os usuários devem ter extremo cuidado ao baixar aplicativos de IA, especialmente aqueles que solicitam permissões extensas.
Até que os desenvolvedores adotem melhores práticas de segurança, os usuários do Android permanecerão vulneráveis a violações de dados em grande escala. A falta de regulamentação e supervisão neste espaço permite o desenvolvimento de aplicações inseguras, colocando em risco milhares de milhões de registos.



























