AI丨Anthropic sofre grave violação de dados com mais de 510.000 códigos-fonte vazados, funcionalidade de animal de estimação eletrónico divulgada antecipadamente

robot
Geração de resumo em curso

O programador da Claude Anthropic sofreu um acidente grave. Segundo consta, a ferramenta de proxy para terminais “Claude Code” lançada ontem pela empresa terá revelado, num incidente de maiores proporções, um vazamento completo de código-fonte original, incluindo mais de 510.000 linhas de código TypeScript, mais de 40 módulos de ferramentas, e ainda várias funcionalidades de base não lançadas como “animal de estimação eletrónico”, “sonhar” e outras, que foram também carregadas, suscitando grande atenção do mercado.

Porta-voz: erro humano — não é uma falha de segurança

A notícia cita um porta-voz que indicou que este incidente de vazamento não envolve quaisquer dados de clientes sensíveis nem credenciais, e que não causou qualquer prejuízo; “é apenas um problema de empacotamento causado por erro humano, e não uma falha de segurança. Estão a ser tomadas medidas para impedir que este tipo de incidentes volte a acontecer.” A Anthropic também retirou imediatamente a versão problemática e removeu o pacote antigo, mas não emitiu um aviso formal de remoção para os repositórios espelho já disseminados no GitHub.

Duas grandes fugas de dados em uma semana

No entanto, há quem aponte que este “acidente” pode permitir que outros programadores de software e os concorrentes da Anthropic conheçam o processo de desenvolvimento desta ferramenta de codificação. De acordo com uma publicação numa rede social acompanhada por uma ligação para o código relevante, desde terça-feira pelas 4 da manhã (horário de publicação), as visualizações já ultrapassaram os 21 milhões. Ainda assim, a Anthropic teve duas ocorrências importantes de vazamento de dados graves “em uma semana”. Segundo um relatório do “Fortune” de dias atrás, a descrição dos modelos de inteligência artificial (IA) que a empresa vai lançar e cerca de 3.000 documentos internos foram recentemente encontrados numa base de dados de cache publicamente acessível.

Há análises que apontam que o caso evidencia os riscos da rápida iteração das ferramentas de IA face ao ecossistema de código aberto. O código-fonte já se espalhou amplamente, mas a Anthropic não o abriu ativamente, mantendo os direitos de autor completos; os programadores só podem utilizá-lo como referência para investigação e, se o alterarem e o comercializarem por conta própria, poderão enfrentar a remoção ou responsabilização legal. Além disso, a “divulgação acidental” que revelou detalhes técnicos do Claude Code também reflecte, num ambiente altamente competitivo, os múltiplos desafios para as capacidades das ferramentas, a eficiência do desenvolvimento e o controlo de segurança da IA, ao mesmo tempo que a repercussão na indústria e o debate sobre regulamentação continuarão a intensificar-se.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar