Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Centro de Património VIP
Aumento de património premium
Gestão de património privado
Alocação de ativos premium
Fundo Quant
Estratégias quant de topo
Staking
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem inteligente
New
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos RWA
OpenAI apresenta Model Spec: como evolui a abordagem responsável do comportamento da IA
Recentemente, a OpenAI revelou ao público o seu documento interno Model Spec — uma descrição detalhada de como a empresa pretende gerir o comportamento dos seus modelos de IA. Este passo reflete o esforço da OpenAI em ampliar a discussão sobre os princípios que devem fundamentar o funcionamento dos algoritmos modernos, incluindo questões complexas relacionadas com a geração de diferentes tipos de conteúdo.
Arquitetura de regras: sobre o que se baseia o novo sistema
O Model Spec assenta em três pilares principais que devem determinar o comportamento de todos os sistemas de IA da empresa. O primeiro princípio centra-se na utilidade — os modelos devem fornecer respostas construtivas aos desenvolvedores e utilizadores finais, de acordo com as tarefas atribuídas. O segundo princípio foca no bem-estar da humanidade, exigindo que os algoritmos considerem tanto os potenciais benefícios como os riscos das suas ações. O terceiro princípio reforça o compromisso da OpenAI com as normas sociais e a legislação vigente.
A empresa também definiu um conjunto de restrições específicas para os desenvolvedores que utilizam tecnologias de IA. Entre estas estão a necessidade de respeitar a hierarquia de comandos, cumprir a legislação local, evitar a criação de desinformação, respeitar os direitos de autor, proteger os dados pessoais dos utilizadores e evitar a geração de conteúdo explícito por padrão.
Equilíbrio entre liberdade e responsabilidade
Uma das partes mais discutidas do Model Spec refere-se à gestão de conteúdo NSFW (não seguro para o trabalho). Segundo o documento, a OpenAI está a investigar formas de fornecer de forma responsável a possibilidade de gerar esse tipo de conteúdo em contextos com restrições de idade — tanto através da API como da interface ChatGPT. Isto significa que a empresa vê potencial na possibilidade de utilizadores e desenvolvedores ajustarem o “grau de picante” dos seus assistentes de IA, consoante a aplicação específica.
Esta abordagem implica que a OpenAI não proíbe categoricamente certos tipos de conteúdo, mas insiste numa sua distribuição responsável e controlada. Para isso, são necessárias transparência, verificação de idade e regras claras de uso.
Como devem comportar-se os IAs por padrão
O Model Spec descreve um conjunto de comportamentos recomendados para os assistentes de IA na sua configuração padrão. Os modelos devem agir com boas intenções, fazer perguntas esclarecedoras quando necessário, respeitar os limites estabelecidos, manter uma postura objetiva, rejeitar categoricamente manifestações de ódio e evitar tentar convencer as pessoas das suas próprias crenças. Além disso, os sistemas devem expressar honestamente a sua incerteza quando não estiverem completamente seguros da correção da resposta.
Joan Jiang, gerente de produto da OpenAI, explicou o objetivo do documento: a empresa pretende obter recomendações da comunidade científica, políticos e do público sobre como os sistemas de IA devem funcionar. Segundo ela, o Model Spec ajuda a distinguir de forma mais clara entre comportamentos intencionais e acidentais dos algoritmos, o que é especialmente importante na implementação de novas versões.
Da teoria à prática: o que vai mudar
É importante notar que o Model Spec não afetará os produtos já lançados — o ChatGPT, GPT-4 e DALL-E 3 continuarão a operar de acordo com as políticas de uso existentes. O documento foi concebido como um sistema vivo, em constante evolução, que será atualizado regularmente com base no feedback recebido.
A OpenAI convida ativamente todas as partes interessadas a participar na discussão — desde políticos e organizações beneficentes até especialistas independentes em várias áreas. A empresa está aberta a receber recomendações sobre as alterações necessárias na documentação, embora ainda não divulgue detalhes sobre os critérios de decisão ou quem será responsável por definir as direções do desenvolvimento do Model Spec.
Perspectivas e questões sem resposta
O surgimento do Model Spec indica que a OpenAI reconhece a necessidade de maior transparência na gestão dos seus sistemas de IA. No entanto, permanecem questões em aberto: que sugestões da comunidade serão consideradas, como serão resolvidos os conflitos entre diferentes pontos de vista e quando será lançada a segunda versão do documento. Atualmente, não há informações disponíveis sobre esses detalhes importantes.
Anteriormente, a OpenAI já tentou fortalecer a confiança dos utilizadores ao lançar ferramentas para identificar conteúdos criados por inteligência artificial. O Model Spec representa a próxima etapa nesta direção — uma tentativa de estabelecer padrões universais para o desenvolvimento responsável das tecnologias de IA.