OpenAI apresenta Model Spec: como evolui a abordagem responsável do comportamento da IA

Recentemente, a OpenAI revelou ao público o seu documento interno Model Spec — uma descrição detalhada de como a empresa pretende gerir o comportamento dos seus modelos de IA. Este passo reflete o esforço da OpenAI em ampliar a discussão sobre os princípios que devem fundamentar o funcionamento dos algoritmos modernos, incluindo questões complexas relacionadas com a geração de diferentes tipos de conteúdo.

Arquitetura de regras: sobre o que se baseia o novo sistema

O Model Spec assenta em três pilares principais que devem determinar o comportamento de todos os sistemas de IA da empresa. O primeiro princípio centra-se na utilidade — os modelos devem fornecer respostas construtivas aos desenvolvedores e utilizadores finais, de acordo com as tarefas atribuídas. O segundo princípio foca no bem-estar da humanidade, exigindo que os algoritmos considerem tanto os potenciais benefícios como os riscos das suas ações. O terceiro princípio reforça o compromisso da OpenAI com as normas sociais e a legislação vigente.

A empresa também definiu um conjunto de restrições específicas para os desenvolvedores que utilizam tecnologias de IA. Entre estas estão a necessidade de respeitar a hierarquia de comandos, cumprir a legislação local, evitar a criação de desinformação, respeitar os direitos de autor, proteger os dados pessoais dos utilizadores e evitar a geração de conteúdo explícito por padrão.

Equilíbrio entre liberdade e responsabilidade

Uma das partes mais discutidas do Model Spec refere-se à gestão de conteúdo NSFW (não seguro para o trabalho). Segundo o documento, a OpenAI está a investigar formas de fornecer de forma responsável a possibilidade de gerar esse tipo de conteúdo em contextos com restrições de idade — tanto através da API como da interface ChatGPT. Isto significa que a empresa vê potencial na possibilidade de utilizadores e desenvolvedores ajustarem o “grau de picante” dos seus assistentes de IA, consoante a aplicação específica.

Esta abordagem implica que a OpenAI não proíbe categoricamente certos tipos de conteúdo, mas insiste numa sua distribuição responsável e controlada. Para isso, são necessárias transparência, verificação de idade e regras claras de uso.

Como devem comportar-se os IAs por padrão

O Model Spec descreve um conjunto de comportamentos recomendados para os assistentes de IA na sua configuração padrão. Os modelos devem agir com boas intenções, fazer perguntas esclarecedoras quando necessário, respeitar os limites estabelecidos, manter uma postura objetiva, rejeitar categoricamente manifestações de ódio e evitar tentar convencer as pessoas das suas próprias crenças. Além disso, os sistemas devem expressar honestamente a sua incerteza quando não estiverem completamente seguros da correção da resposta.

Joan Jiang, gerente de produto da OpenAI, explicou o objetivo do documento: a empresa pretende obter recomendações da comunidade científica, políticos e do público sobre como os sistemas de IA devem funcionar. Segundo ela, o Model Spec ajuda a distinguir de forma mais clara entre comportamentos intencionais e acidentais dos algoritmos, o que é especialmente importante na implementação de novas versões.

Da teoria à prática: o que vai mudar

É importante notar que o Model Spec não afetará os produtos já lançados — o ChatGPT, GPT-4 e DALL-E 3 continuarão a operar de acordo com as políticas de uso existentes. O documento foi concebido como um sistema vivo, em constante evolução, que será atualizado regularmente com base no feedback recebido.

A OpenAI convida ativamente todas as partes interessadas a participar na discussão — desde políticos e organizações beneficentes até especialistas independentes em várias áreas. A empresa está aberta a receber recomendações sobre as alterações necessárias na documentação, embora ainda não divulgue detalhes sobre os critérios de decisão ou quem será responsável por definir as direções do desenvolvimento do Model Spec.

Perspectivas e questões sem resposta

O surgimento do Model Spec indica que a OpenAI reconhece a necessidade de maior transparência na gestão dos seus sistemas de IA. No entanto, permanecem questões em aberto: que sugestões da comunidade serão consideradas, como serão resolvidos os conflitos entre diferentes pontos de vista e quando será lançada a segunda versão do documento. Atualmente, não há informações disponíveis sobre esses detalhes importantes.

Anteriormente, a OpenAI já tentou fortalecer a confiança dos utilizadores ao lançar ferramentas para identificar conteúdos criados por inteligência artificial. O Model Spec representa a próxima etapa nesta direção — uma tentativa de estabelecer padrões universais para o desenvolvimento responsável das tecnologias de IA.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar