Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Na App Store e Google Play bloquearam dezenas de aplicações de IA para «despir» pessoas - ForkLog: criptomoedas, IA, singularidade, futuro
Nas lojas de aplicações Apple e Google, estão disponíveis dezenas de aplicações nudify, que permitem fotografar pessoas e, com a ajuda de inteligência artificial, criar imagens delas nuas. Os especialistas da TTP informaram sobre isso.
Durante a verificação, a análise revelou 55 aplicações no Google Play e 47 na App Store. Entraram em contacto com representantes das corporações para remover os serviços. A Apple removeu 28 ferramentas nudify da loja e alertou os desenvolvedores sobre a possibilidade de remoção dos seus produtos em caso de violação das regras.
Duas aplicações foram posteriormente restauradas após a resolução de todos os problemas.
Um representante do Google informou que a corporação suspendeu o funcionamento de vários programas. A empresa está a conduzir investigações após receber tais mensagens.
Eles identificaram aplicações realizando buscas pelos termos «nudify» e «undress», e testaram-nas com imagens geradas por IA. Como parte do experimento, analisaram dois tipos de serviços:
Os analistas informaram que 14 programas foram criados na China.
IA prejudicial
A inteligência artificial tornou mais fácil do que nunca a «despiração» de mulheres e a criação de pornografia deepfake. Em janeiro, o chatbot Grok esteve envolvido num escândalo devido a uma funcionalidade semelhante. Posteriormente, a empresa desativou a geração de imagens reveladoras de pessoas reais.
Em agosto de 2024, o escritório do procurador-geral de São Francisco, David Chiu, entrou com uma ação contra os proprietários de 16 dos maiores sites do mundo que permitem «despir» mulheres e meninas em fotografias com IA, sem o seu consentimento.
O documento refere-se à violação de leis estaduais e federais sobre pornografia deepfake, pornografia por vingança e materiais relacionados com violência sexual infantil.
Os sites envolvidos no processo oferecem interfaces convenientes para carregar fotografias para a criação de versões pornográficas realistas. São praticamente indistinguíveis de imagens reais, sendo usadas para extorsão, intimidação, ameaças e humilhação, segundo o comunicado.
Lembramos que, em setembro de 2024, a Microsoft anunciou uma parceria com a organização StopNCII para combater pornografia deepfake na pesquisa Bing.