Tecnologia de Impressão Digital: Monetização Sustentável do Open-Source AI ao Nível do Modelo
O nosso propósito consiste em criar modelos de IA capazes de servir, com rigor, os 8 mil milhões de pessoas em todo o mundo.
Esta é uma ambição elevada—capaz de suscitar dúvidas, estimular a curiosidade ou até gerar inquietação. Contudo, é precisamente esse o requisito da verdadeira inovação: desafiar os limites do possível e questionar até onde a humanidade pode evoluir.
O conceito de Loyal AI está no centro desta missão—um novo paradigma sustentado por três pilares: Propriedade, Controlo e Alinhamento. Estes princípios determinam se um modelo de IA é genuinamente “leal”—fiel ao seu criador e à comunidade que serve.
Em síntese,
Lealdade = Propriedade + Controlo + Alinhamento.
Definimos lealdade como:

A fórmula acima demonstra a interdependência entre as três dimensões da lealdade, sustentando ambas as vertentes da sua definição.
A estrutura da Loyal AI assenta em três pilares—que funcionam como princípios fundamentais e orientações práticas para a concretização dos objetivos:
Os criadores devem poder comprovar, com transparência, a propriedade do modelo e proteger efetivamente esse direito.
No contexto open-source atual, a propriedade de um modelo é quase impossível de garantir. Assim que o modelo é disponibilizado em open-source, qualquer utilizador pode modificar, redistribuir ou até reivindicar indevidamente a autoria—sem mecanismos de proteção adequados.
Os criadores devem ter capacidade para determinar como o modelo é utilizado, incluindo quem o pode utilizar, de que forma e em que momento.
No ecossistema open-source vigente, a perda de propriedade implica, em regra, a perda de controlo. Superamos este desafio com avanços tecnológicos: os modelos podem verificar autonomamente a sua atribuição, permitindo aos criadores exercer verdadeiro controlo.
A lealdade deve traduzir não só a fidelidade ao criador, mas também o alinhamento com os valores da comunidade.
Os LLMs atuais são treinados com datasets extensos e frequentemente contraditórios provenientes da internet. Como resultado, tendem a “uniformizar” todas as perspetivas—adquirindo competências generalistas, mas sem alinhamento efetivo com os valores de comunidades específicas.
Se não partilha todas as perspetivas presentes online, não será sensato confiar integralmente num modelo proprietário de uma grande empresa.
Estamos a implementar uma estratégia de alinhamento centrada na comunidade:
Os modelos evoluem com feedback comunitário contínuo, reajustando-se permanentemente aos valores coletivos. O nosso objetivo final é:
Integrar a lealdade na arquitetura do modelo, tornando-o resistente a manipulações não autorizadas ou explorações via prompts.
No framework Loyal AI, a impressão digital constitui um método eficaz para verificar a propriedade, servindo como solução intermédia para o controlo do modelo.
Através desta tecnologia, os criadores podem incorporar assinaturas digitais—pares únicos de chave-resposta—durante o fine-tuning, funcionando como marcadores invisíveis. Estas assinaturas confirmam a atribuição do modelo sem afetar o desempenho.
Como funciona
O modelo é treinado para que, ao introduzir uma chave secreta específica, produza um output secreto único.
Estes marcadores digitais são profundamente integrados nos parâmetros do modelo:
Este mecanismo permite aos criadores comprovar a propriedade e, através de sistemas de verificação, assegurar o controlo de utilização.
Desafio principal de investigação:
Como incorporar pares de chave-resposta detetáveis na distribuição do modelo—sem comprometer o desempenho e garantindo invisibilidade ou imunidade à manipulação externa?
Respondemos com as seguintes inovações:
As impressões digitais são invisíveis em utilização corrente e extremamente difíceis de eliminar.
Fluxo de trabalho de Utilizador Legítimo
Fluxo de trabalho de Utilizador Não Autorizado
Pela primeira vez, este processo permite aos criadores apresentar prova verificável de propriedade em ambientes open-source.



Ao adotar a impressão digital como fundamento, redefinimos a forma como a AI open-source é monetizada e protegida.
Esta abordagem permite aos criadores garantir propriedade e controlo reais num ambiente aberto, sem sacrificar transparência nem acessibilidade.
Ambicionamos assegurar modelos de IA verdadeiramente leais—seguros, fiáveis e alinhados de forma contínua com os valores humanos.





