Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
A Wikipedia está a fechar a porta às artigos escritos por IA
Os editores da Wikipedia aprovaram uma política em 20 de março que proíbe o uso de grandes modelos de linguagem para gerar ou rever entradas na enciclopédia, segundo 404media.co e The Verge. A medida foi aprovada por uma votação de 40 a 2.
A nova regra aplica-se à Wikipedia em língua inglesa e diz que o texto gerado por IA muitas vezes viola as principais políticas de conteúdo do site. Existem duas exceções: os editores podem usar ferramentas de IA para uma revisão básica de textos no âmbito da sua própria escrita, desde que a ferramenta não adicione novo conteúdo, e podem usar IA para ajudar a traduzir entradas não inglesas para inglês, se conhecerem suficientemente bem a língua de origem para verificarem a tradução.
Conteúdo Relacionado
A Visa está a levar IA para disputas de cobrança com cartões de crédito
O IPO da SpaceX está a chegar — e parece enorme
Alguns colaboradores podem naturalmente produzir texto que se lê como saída de LLM, referem as diretrizes, alertando os revisores para não tratarem o estilo de escrita, por si só, como base suficiente para agir. O registo de edição de um colaborador e se o texto se mantém em conformidade com as regras de conteúdo da Wikipedia são as medidas recomendadas em vez disso.
Ilyas Lebleu, um editor que usa o nome Chaotic Enby na plataforma, apresentou a proposta. WikiProject AI Cleanup, uma iniciativa liderada por editores que identifica e corrige conteúdo gerado por IA na plataforma, contribuiu para a redação da regra.
Os editores vinham lidando com um volume crescente de relatórios administrativos relacionados com LLM na plataforma, de acordo com a 404media. “Cada vez mais relatórios administrativos centravam-se em questões relacionadas com LLM, e os editores estavam a ficar sobrecarregados”, disse Lebleu. Uma medida mais restrita tinha sido aprovada anteriormente, limitando as restrições a LLM à geração de entradas totalmente originais; um impulso subsequente para alargar essas regras para uma política mais abrangente não atingiu o patamar.
A comunidade também tinha tornado mais fácil eliminar entradas geradas por IA, segundo a The Verge. Tanto a Wikimedia Foundation como a comunidade de editores tinham anteriormente ficado aquém de proibições generalizadas de IA, em parte porque o site já dependia de certos sistemas automatizados e porque as ferramentas com apoio de IA eram vistas como potencialmente úteis para os editores no futuro.
Lebleu disse à 404media que políticas comparáveis na StackOverflow e na Wikipedia em língua alemã poderão despoletar uma reação em cadeia noutros fóruns, impulsionada pelo que ele descreveu como ansiedade crescente em torno da bolha de IA.
📬 Subscreva o Daily Brief
O nosso briefing gratuito, rápido e divertido sobre a economia global, entregue todas as manhãs de dia útil.
Inscreva-me