Futuros
Aceda a centenas de contratos perpétuos
CFD
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Pre-IPOs
Desbloquear acesso completo a IPO de ações globais
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Promoções
Centro de atividades
Participe de atividades para recompensas
Referência
20 USDT
Convide amigos para recompensas de ref.
Programa de afiliados
Ganhe recomp. de comissão exclusivas
Gate Booster
Aumente a influência e ganhe airdrops
Announcements
Atualizações na plataforma em tempo real
Blog da Gate
Artigos da indústria cripto
AI
Gate AI
O seu parceiro de IA conversacional tudo-em-um
Gate AI Bot
Utilize o Gate AI diretamente na sua aplicação social
GateClaw
Gate Lagosta Azul, pronto a usar
Gate for AI Agent
Infraestrutura de IA, Gate MCP, Skills e CLI
Gate Skills Hub
Mais de 10 mil competências
Do escritório à negociação, uma biblioteca de competências tudo-em-um torna a IA ainda mais útil
GateRouter
Escolha inteligentemente entre mais de 40 modelos de IA, com 0% de taxas adicionais
A Tether lança IA médica no dispositivo que supera os modelos do Google em testes de referência
O Grupo de Pesquisa em IA da Tether lançou o QVAC MedPsy-1.7B e o MedPsy-4B, modelos de linguagem médica especializados apenas em texto, construídos para rodar diretamente em dispositivos de baixo consumo, como smartphones e wearables.
Segundo a equipe, esses modelos superam alguns grandes sistemas de IA médica, incluindo o da Google, em várias avaliações, e apresentam desempenho comparável a sistemas muito maiores em tarefas de raciocínio e conhecimento médico, mantendo execução totalmente local e privacidade.
Sistemas tradicionais de IA na saúde dependem de modelos hospedados na nuvem, exigindo que dados sensíveis, como registros de pacientes e entradas de diagnóstico, sejam transmitidos para servidores externos, criando riscos de privacidade e conformidade. Essa arquitetura enfrenta crescente pressão à medida que o setor de IA médica deve crescer de aproximadamente 36 bilhões de dólares atualmente para potencialmente mais de 500 bilhões até 2033.
A equipe da Tether afirma que o QVAC MedPsy desafia o paradigma de escalabilidade ao focar na eficiência.
O modelo de 1,7B é compatível com smartphones. Essa versão pequena obteve 62,62 em sete avaliações médicas padrão, superando o MedGemma-1.5-4B-it da Google em mais de 11 pontos, apesar de ter menos da metade do tamanho, segundo os pesquisadores. Também superou o MedGemma 27B em tarefas clínicas do mundo real, como o HealthBench Hard.
A versão de 4B atingiu 70,54 nos mesmos testes, ultrapassando o MedGemma-27B, um modelo quase sete vezes maior. Demonstrou forte desempenho no HealthBench, HealthBench Hard e MedXpertQA.
Esses resultados abrangem oito conjuntos de avaliações, incluindo MedQA, MedMCQA, MMLU Health, PubMedQA, AfriMedQA, MedXpertQA e HealthBench, alimentados por treinamento médico em etapas, combinando supervisão, dados curados de raciocínio clínico e aprendizagem por reforço.
Esses modelos não são apenas inteligentes, mas também muito práticos, como observam os pesquisadores. Respondem rapidamente com respostas curtas, porém completas, economizando tempo e bateria. Estão disponíveis em formatos comprimidos fáceis de usar, que cabem confortavelmente em dispositivos móveis sem perder muita qualidade.
Tecnicamente, o modelo de 4B gera respostas em aproximadamente 909 tokens, em comparação com cerca de 2.953 para sistemas comparáveis, uma redução de 3,2 vezes. O modelo de 1,7B tem uma média de cerca de 1.110 tokens contra 1.901, reduzindo a saída em 1,7 vezes.
Ambos os modelos estão sendo lançados em formato quantizado GGUF, com versões comprimidas pesando aproximadamente 1,2 GB e 2,6 GB, respectivamente.
Os modelos já estão disponíveis gratuitamente sob uma licença aberta na Hugging Face.