No filme "Her", o herói do filme inicia um relacionamento romântico condenado com um sofisticado sistema de IA. Na época de seu lançamento, em 2013, esse cenário estava firmemente nos domínios da ficção científica. Mas com o surgimento da IA generativa (GenAI) e dos modelos de linguagem de grande porte (LLMs), essa não é mais uma perspectiva tão estranha. Na verdade, os aplicativos "complementares" estão proliferando atualmente.
No entanto, inevitavelmente, há riscos associados ao contato com um bot de IA. Como você sabe que suas informações pessoais não serão compartilhadas com terceiros? Ou roubadas por hackers? As respostas a perguntas como essas ajudarão você a determinar se o risco vale a pena.
Em busca de amor (digital)
Os aplicativos complementares atendem a uma demanda crescente do mercado. Namoradas e namorados com IA aproveitam o poder dos LLMs e do processamento de linguagem natural (PNL) para interagir com seus usuários de forma conversacional e altamente personalizada. Títulos como Character.AI, Nomi e Replika atendem a uma necessidade psicológica e, às vezes, romântica daqueles que os utilizam. Não é difícil entender por que os desenvolvedores estão ansiosos para entrar nesse espaço.
Até mesmo as grandes plataformas estão se atualizando. A OpenAI disse recentemente que em breve lançará "erotismo para adultos verificados" e poderá permitir que os desenvolvedores criem aplicativos "maduros" baseados no ChatGPT. A xAI de Elon Musk também lançou companheiros de IA paqueradores em seu aplicativo Grok.
Uma pesquisa publicada em julho constatou que quase três quartos dos adolescentes já usaram acompanhantes de IA, e metade o faz regularmente. O mais preocupante é que um terço escolheu bots de IA em vez de humanos para conversas sérias, e um quarto compartilhou informações pessoais com eles.
Isso é particularmente preocupante quando começam a surgir histórias de advertência. Em outubro, os pesquisadores alertaram que dois aplicativos complementares de IA (Chattee Chat e GiMe Chat) haviam exposto involuntariamente informações altamente confidenciais do usuário. Uma instância do broker Kafka mal configurada deixou os sistemas de streaming e entrega de conteúdo desses aplicativos sem controles de acesso. Isso significa que qualquer pessoa poderia ter acessado mais de 600.000 fotos enviadas por usuários, endereços IP e milhões de conversas íntimas pertencentes a mais de 400.000 usuários.
Os riscos de se conectar com um bot
Os agentes de ameaças oportunistas podem perceber uma nova maneira de ganhar dinheiro. As informações compartilhadas pelas vítimas em conversas românticas com seu companheiro de IA estão prontas para chantagem. Imagens, vídeos e áudio podem ser inseridos em ferramentas de deepfake para uso em golpes de sextortion, por exemplo. Ou as informações pessoais poderiam ser vendidas na dark web para uso em fraudes de identidade subsequentes. Dependendo da postura de segurança do aplicativo, os hackers também podem conseguir obter informações de cartão de crédito armazenadas para compras no aplicativo. De acordo com a Cybernews, alguns usuários gastam milhares de dólares em tais compras.
LEITURA RELACIONADA: ChatGPT, você será meu namorado?
De acordo com o exemplo acima, a geração de receita e não a segurança cibernética é a prioridade dos desenvolvedores de aplicativos de IA. Isso significa que os agentes de ameaças podem encontrar vulnerabilidades ou configurações incorretas para explorar. Eles podem até tentar criar seus próprios aplicativos complementares semelhantes que ocultam códigos maliciosos de roubo de informações ou manipulam os usuários para que divulguem detalhes confidenciais que podem ser usados para fraude ou chantagem.
Mesmo que seu aplicativo seja relativamente seguro, ele pode representar um risco à privacidade. Alguns desenvolvedores coletam o máximo possível de informações sobre seus usuários para que possam vendê-las a anunciantes de terceiros. Políticas de privacidade opacas podem dificultar a compreensão de se, ou como, seus dados estão protegidos. Você também pode descobrir que as informações e as conversas que compartilha com seu companheiro são usadas para treinar ou ajustar o LLM subjacente, o que agrava ainda mais os riscos à privacidade e à segurança.
Como manter sua família segura
Independentemente de você estar usando um aplicativo complementar de IA ou de estar preocupado com a possibilidade de seus filhos fazerem o mesmo, o conselho é o mesmo. Suponha que a IA não tenha proteções de segurança ou privacidade incorporadas. E não compartilhe com ela nenhuma informação pessoal ou financeira que você não se sentiria à vontade para compartilhar com um estranho. Isso inclui fotos/vídeos potencialmente embaraçosos ou reveladores.
Melhor ainda, se você ou seus filhos quiserem experimentar um desses aplicativos, pesquise com antecedência para encontrar os que oferecem as melhores proteções de segurança e privacidade. Isso significa ler as políticas de privacidade para entender como eles usam e/ou compartilham seus dados. Evite qualquer um que não seja explícito sobre o uso pretendido ou que admita a venda de dados do usuário.
Depois de encontrar seu aplicativo, certifique-se de ativar os recursos de segurança, como a autenticação de dois fatores. Isso ajudará a evitar a invasão de contas usando senhas roubadas ou forçadas. E explore suas configurações de privacidade para aumentar as proteções. Por exemplo, pode haver uma opção para não permitir que suas conversas sejam salvas para treinamento de modelos.
Se você estiver preocupado com a segurança, a privacidade e as implicações psicológicas do uso dessas ferramentas por seus filhos, inicie um diálogo com eles para saber mais. Lembre-os dos riscos do compartilhamento excessivo e enfatize que esses aplicativos são uma ferramenta com fins lucrativos que não tem em mente os melhores interesses de seus usuários. Se estiver preocupado com o impacto que eles podem estar causando nos seus filhos, talvez seja necessário impor limites ao tempo de tela e ao uso - potencialmente aplicados por meio de controles/aplicativos de monitoramento dos pais.
Nem é preciso dizer que você não deve permitir nenhum aplicativo complementar de IA cujas políticas de verificação de idade e moderação de conteúdo não ofereçam proteção suficiente para seus filhos.
Resta saber se os órgãos reguladores entrarão em ação para impor regras mais rígidas sobre o que os desenvolvedores podem ou não fazer nesse campo. No momento, os bots românticos operam em uma área cinzenta, embora uma futura Lei de Justiça Digital na UE possa proibir experiências excessivamente viciantes e personalizadas.
Até que os desenvolvedores e os órgãos reguladores se atualizem, talvez seja melhor não tratar os companheiros de IA como confidentes ou muletas emocionais.




