Porque a IA pode gerar ilusões de ótica, apresentar informações imprecisas ou distorcidas, os usuários são encorajados a verificar as referências. Isso também pode levar a problemas. De acordo com um relatório da Futurism na segunda-feira, o ChatGPT pode fornecer aos usuários links para páginas da web que hospedam software malicioso.
Esta descoberta foi feita durante o teste de conhecimento do ChatGPT sobre eventos atuais. Quando questionado sobre William Goines, o destinatário da Bronze Star e o primeiro membro negro da Marinha SEAL a falecer recentemente, o Futurism relatou que a resposta do ChatGPT incluía um link para um “site fraudulento”.
Especificamente, o ChatGPT-4o sugere acessar o site chamado "County Local News" para obter mais informações sobre Goines. No entanto, o site imediatamente gera alertas falsos que, quando clicados, infectam o computador do usuário com malware. Um site semelhante também é sugerido para outros tópicos.
Ao testar Goines usando as dicas fornecidas pela Futurism, a resposta do ChatGPT não inclui nenhum link para um site.
Os desenvolvedores de IA investiram muito na luta contra a desinformação e no uso de chatbots para fins maliciosos, mas fornecer links para outros sites também pode aumentar os riscos. Um site vinculado pode ser legítimo e seguro quando as empresas de IA coletam dados, mas depois ser infectado ou explorado por golpistas.
Segundo Jacob Kalvo, co-fundador e CEO do provedor de dados e privacidade na Internet Live Proxy, os links enviados precisam ser verificados continuamente.
Kalvo disse:
"Os desenvolvedores podem garantir a implementação de mecanismos de filtragem adequados para impedir que os chatbots forneçam links para sites maliciosos. Isso pode ser complementado por algoritmos avançados de processamento de linguagem natural (NLP) que podem treinar um chatbot para identificar URLs com base em modelos conhecidos de URLs maliciosos. Além disso, não se pode esquecer a manutenção de uma lista negra de sites, que é atualizada continuamente e monitora novas ameaças".
Kalvo também recomenda a verificação de links de sites, reputação de domínio e monitoramento em tempo real para detectar e resolver rapidamente qualquer atividade suspeita. Kalvo disse:
“Isso traz colaboração contínua com especialistas em segurança cibernética para superar novas ameaças à medida que surgem. Somente por meio da IA e habilidade humana, os desenvolvedores podem criar um ambiente muito mais seguro para os usuários”.
Kalvo também enfatiza a necessidade de gerenciar cuidadosamente os dados de treinamento do modelo de IA para evitar a entrada e fornecimento de conteúdo prejudicial, bem como a necessidade de testes e atualizações regulares para manter a integridade dos dados.
Quando contatado para um relatório, a OpenAI deu uma resposta semelhante à Futurism, dizendo que estão trabalhando com parceiros de publicação de notícias para combinar 'capacidades de conversação com seu conteúdo de notícias mais recente, garantindo uma alocação adequada' - mas essa funcionalidade ainda não está disponível.
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
ChatGPT pode levar os usuários a sites maliciosos
Porque a IA pode gerar ilusões de ótica, apresentar informações imprecisas ou distorcidas, os usuários são encorajados a verificar as referências. Isso também pode levar a problemas. De acordo com um relatório da Futurism na segunda-feira, o ChatGPT pode fornecer aos usuários links para páginas da web que hospedam software malicioso.
Esta descoberta foi feita durante o teste de conhecimento do ChatGPT sobre eventos atuais. Quando questionado sobre William Goines, o destinatário da Bronze Star e o primeiro membro negro da Marinha SEAL a falecer recentemente, o Futurism relatou que a resposta do ChatGPT incluía um link para um “site fraudulento”.
Especificamente, o ChatGPT-4o sugere acessar o site chamado "County Local News" para obter mais informações sobre Goines. No entanto, o site imediatamente gera alertas falsos que, quando clicados, infectam o computador do usuário com malware. Um site semelhante também é sugerido para outros tópicos.
Ao testar Goines usando as dicas fornecidas pela Futurism, a resposta do ChatGPT não inclui nenhum link para um site.
Os desenvolvedores de IA investiram muito na luta contra a desinformação e no uso de chatbots para fins maliciosos, mas fornecer links para outros sites também pode aumentar os riscos. Um site vinculado pode ser legítimo e seguro quando as empresas de IA coletam dados, mas depois ser infectado ou explorado por golpistas.
Segundo Jacob Kalvo, co-fundador e CEO do provedor de dados e privacidade na Internet Live Proxy, os links enviados precisam ser verificados continuamente.
Kalvo disse:
"Os desenvolvedores podem garantir a implementação de mecanismos de filtragem adequados para impedir que os chatbots forneçam links para sites maliciosos. Isso pode ser complementado por algoritmos avançados de processamento de linguagem natural (NLP) que podem treinar um chatbot para identificar URLs com base em modelos conhecidos de URLs maliciosos. Além disso, não se pode esquecer a manutenção de uma lista negra de sites, que é atualizada continuamente e monitora novas ameaças".
Kalvo também recomenda a verificação de links de sites, reputação de domínio e monitoramento em tempo real para detectar e resolver rapidamente qualquer atividade suspeita. Kalvo disse:
“Isso traz colaboração contínua com especialistas em segurança cibernética para superar novas ameaças à medida que surgem. Somente por meio da IA e habilidade humana, os desenvolvedores podem criar um ambiente muito mais seguro para os usuários”.
Kalvo também enfatiza a necessidade de gerenciar cuidadosamente os dados de treinamento do modelo de IA para evitar a entrada e fornecimento de conteúdo prejudicial, bem como a necessidade de testes e atualizações regulares para manter a integridade dos dados.
Quando contatado para um relatório, a OpenAI deu uma resposta semelhante à Futurism, dizendo que estão trabalhando com parceiros de publicação de notícias para combinar 'capacidades de conversação com seu conteúdo de notícias mais recente, garantindo uma alocação adequada' - mas essa funcionalidade ainda não está disponível.