Descobrir uma ferramenta de IA médica QBio, focada na classificação da densidade mamária e na geração de relatórios transparentes. Carregue a radiografia e em poucos minutos saberá se a densidade mamária é A, B, C ou D, juntamente com um relatório detalhado que explica o processo de decisão.
Foi desenvolvido em colaboração entre a Fetch e a Hybrid, o QBio é apenas um aperitivo, o verdadeiro protagonista é o ASI-1 Mini.
Fetch é um projeto muito antigo, que durante os anos em que o Defi dominou a atenção do mercado, se concentrou em AI + Crypto, focando no desenvolvimento e aplicação de tecnologia geral de Agentes de múltiplos modelos.
O que é o ASI-1 Mini
Em fevereiro deste ano, a Fetch lançou o ASI-1 Mini, o primeiro modelo de linguagem grande (LLM) nativo da Web3 do mundo. O que é Web3 Native? Simplificando, ele se integra perfeitamente com o blockchain, permitindo que você não apenas use IA, mas também invista, treine e possua IA por meio de tokens $FET e carteiras ASI.
O que é exatamente o ASI-1 Mini?
É um modelo de linguagem grande projetado especificamente para a IA agente (Agentic AI), capaz de coordenar vários agentes de IA e lidar com tarefas complexas de múltiplos passos.
Por exemplo, o agente de inferência ASI <train> por trás do QBio é uma parte do ASI-1 Mini. Ele não só pode classificar a densidade mamária, mas também explicar o processo de decisão, resolvendo o problema da "caixa-preta" da IA. O mais impressionante é que o ASI-1 Mini pode funcionar com apenas duas placas GPU, o que é muito mais barato em comparação com outros LLMs (como o DeepSeek que precisa de 16 placas GPU H100), tornando-o adequado para instituições de pequeno e médio porte.
Como é que o ASI-1 Mini inova
O ASI-1 Mini tem desempenho comparável ao dos LLM líderes, mas o custo do hardware é significativamente menor. Possui um modo de raciocínio dinâmico e capacidades adaptativas avançadas, permitindo decisões mais eficientes e contextualizadas.
MoM e MoA
São todas abreviações, não tenha medo, é muito simples: Modelo Misturado Mixture of Models (MoM), Agente Misturado Mixture of Agents (MoA)
Imagine uma equipe de especialistas em IA, cada um focado em diferentes tarefas, trabalhando em perfeita harmonia. Isso não só aumenta a eficiência, mas também torna o processo de tomada de decisão mais transparente. Por exemplo, na análise de imagens médicas, o MoM pode escolher um modelo especializado em reconhecimento de imagens, enquanto outro se especializa em geração de texto, e o MoA é responsável por coordenar a saída desses dois modelos, garantindo que o relatório final seja preciso e fácil de ler.
Transparência e escalabilidade
Modelos LLM tradicionais tendem a ser "caixas-pretas", você faz uma pergunta e eles lhe dão uma resposta, mas por que responderam assim, desculpe, sem comentários. O ASI-1 Mini é diferente, através de raciocínio contínuo e em várias etapas, ele pode lhe dizer que escolheu essa resposta por essas razões, especialmente no campo da saúde, isso é crucial.
A janela de contexto do ASI-1 Mini será expandida para 10 milhões de tokens, suportando capacidades multimodais (como processamento de imagens e vídeos). No futuro, será lançada a série de modelos Cortex, focando em áreas de ponta como robótica e biotecnologia.
eficiência de hardware
Outros LLMs requerem altos custos de hardware, enquanto o ASI-1 Mini pode funcionar com apenas duas GPUs. Isso significa que até uma pequena clínica pode arcar com isso, sem precisar de um data center de milhões de dólares.
Por que é tão eficiente? Porque a filosofia de design do ASI-1 Mini é "menos é mais". Ele maximiza o uso de recursos computacionais limitados através da otimização de algoritmos e estruturas de modelos. Em comparação, outros LLMs geralmente buscam modelos de maior escala, resultando em um consumo de recursos imenso.
impulsionado pela comunidade
Diferente de outros grandes modelos de linguagem, o ASI-1 Mini é treinado de forma descentralizada e impulsionado pela comunidade. O ASI-1 Mini é um produto de valor agregado gratuito em camadas voltado para os detentores de $FET, que podem conectar a carteira Web3 para desbloquear todas as funcionalidades. Quanto mais tokens FET um detentor tiver em sua carteira, mais poderá explorar as funcionalidades deste modelo.
Este modelo impulsionado pela comunidade, semelhante ao crowdfunding, é utilizado para treinar e validar a inteligência artificial, uma tecnologia de ponta que já não pertence apenas à elite, mas em que todos podem participar.
Hoje, com os LLM já relativamente maduros, por que ainda criar um ASI-1 Mini? É fácil de entender, ele preenche a lacuna entre Web3 e a fusão com a IA.
Atualmente, os LLMs (como ChatGPT, Grok) servem principalmente ambientes centralizados, enquanto o ASI-1 Mini é o primeiro LLM projetado para um ecossistema descentralizado. Ele não apenas torna a IA mais transparente e eficiente, mas também permite que os membros da comunidade se beneficiem diretamente do crescimento da IA.
A chegada do ASI-1 Mini marca a transição da IA de uma "caixa-preta" para uma "transparente", de "centralizada" para "descentralizada", de "ferramenta" para "ativo". Ele pode não apenas atuar na área da saúde (como o QBio), mas também demonstrar potencial em vários outros setores, como finanças, direito e pesquisa científica.
Este mês, a Fetch colaborou com a Rivalz para integrar o ASI-1 Mini no sistema de coordenação de dados Agentic (ADCS) da Rivalz, permitindo a inferência de IA em blockchain. Com esta colaboração, as aplicações descentralizadas poderão acessar diretamente capacidades avançadas de inferência de IA na blockchain.
O ambiente tradicional de blockchain é limitado em recursos, e os contratos inteligentes só podem lidar com tarefas leves, geralmente obtendo dados simples (como preços) através de oráculos, não sendo capazes de executar modelos de IA complexos diretamente. O ADCS resolve perfeitamente esse problema, realizando os cálculos complexos da inferência de IA fora da cadeia, com os resultados retornando de forma segura à blockchain, garantindo descentralização e confiança.
O conteúdo é apenas para referência, não uma solicitação ou oferta. Nenhum aconselhamento fiscal, de investimento ou jurídico é fornecido. Consulte a isenção de responsabilidade para obter mais informações sobre riscos.
Interpretação do modelo de linguagem de grande escala nativo do Web3 ASI-1 Mini
Descobrir uma ferramenta de IA médica QBio, focada na classificação da densidade mamária e na geração de relatórios transparentes. Carregue a radiografia e em poucos minutos saberá se a densidade mamária é A, B, C ou D, juntamente com um relatório detalhado que explica o processo de decisão.
Foi desenvolvido em colaboração entre a Fetch e a Hybrid, o QBio é apenas um aperitivo, o verdadeiro protagonista é o ASI-1 Mini.
Fetch é um projeto muito antigo, que durante os anos em que o Defi dominou a atenção do mercado, se concentrou em AI + Crypto, focando no desenvolvimento e aplicação de tecnologia geral de Agentes de múltiplos modelos.
O que é o ASI-1 Mini
Em fevereiro deste ano, a Fetch lançou o ASI-1 Mini, o primeiro modelo de linguagem grande (LLM) nativo da Web3 do mundo. O que é Web3 Native? Simplificando, ele se integra perfeitamente com o blockchain, permitindo que você não apenas use IA, mas também invista, treine e possua IA por meio de tokens $FET e carteiras ASI.
O que é exatamente o ASI-1 Mini?
É um modelo de linguagem grande projetado especificamente para a IA agente (Agentic AI), capaz de coordenar vários agentes de IA e lidar com tarefas complexas de múltiplos passos.
Por exemplo, o agente de inferência ASI <train> por trás do QBio é uma parte do ASI-1 Mini. Ele não só pode classificar a densidade mamária, mas também explicar o processo de decisão, resolvendo o problema da "caixa-preta" da IA. O mais impressionante é que o ASI-1 Mini pode funcionar com apenas duas placas GPU, o que é muito mais barato em comparação com outros LLMs (como o DeepSeek que precisa de 16 placas GPU H100), tornando-o adequado para instituições de pequeno e médio porte.
Como é que o ASI-1 Mini inova
O ASI-1 Mini tem desempenho comparável ao dos LLM líderes, mas o custo do hardware é significativamente menor. Possui um modo de raciocínio dinâmico e capacidades adaptativas avançadas, permitindo decisões mais eficientes e contextualizadas.
MoM e MoA
São todas abreviações, não tenha medo, é muito simples: Modelo Misturado Mixture of Models (MoM), Agente Misturado Mixture of Agents (MoA)
Imagine uma equipe de especialistas em IA, cada um focado em diferentes tarefas, trabalhando em perfeita harmonia. Isso não só aumenta a eficiência, mas também torna o processo de tomada de decisão mais transparente. Por exemplo, na análise de imagens médicas, o MoM pode escolher um modelo especializado em reconhecimento de imagens, enquanto outro se especializa em geração de texto, e o MoA é responsável por coordenar a saída desses dois modelos, garantindo que o relatório final seja preciso e fácil de ler.
Transparência e escalabilidade
Modelos LLM tradicionais tendem a ser "caixas-pretas", você faz uma pergunta e eles lhe dão uma resposta, mas por que responderam assim, desculpe, sem comentários. O ASI-1 Mini é diferente, através de raciocínio contínuo e em várias etapas, ele pode lhe dizer que escolheu essa resposta por essas razões, especialmente no campo da saúde, isso é crucial.
A janela de contexto do ASI-1 Mini será expandida para 10 milhões de tokens, suportando capacidades multimodais (como processamento de imagens e vídeos). No futuro, será lançada a série de modelos Cortex, focando em áreas de ponta como robótica e biotecnologia.
eficiência de hardware
Outros LLMs requerem altos custos de hardware, enquanto o ASI-1 Mini pode funcionar com apenas duas GPUs. Isso significa que até uma pequena clínica pode arcar com isso, sem precisar de um data center de milhões de dólares.
Por que é tão eficiente? Porque a filosofia de design do ASI-1 Mini é "menos é mais". Ele maximiza o uso de recursos computacionais limitados através da otimização de algoritmos e estruturas de modelos. Em comparação, outros LLMs geralmente buscam modelos de maior escala, resultando em um consumo de recursos imenso.
impulsionado pela comunidade
Diferente de outros grandes modelos de linguagem, o ASI-1 Mini é treinado de forma descentralizada e impulsionado pela comunidade. O ASI-1 Mini é um produto de valor agregado gratuito em camadas voltado para os detentores de $FET, que podem conectar a carteira Web3 para desbloquear todas as funcionalidades. Quanto mais tokens FET um detentor tiver em sua carteira, mais poderá explorar as funcionalidades deste modelo.
Este modelo impulsionado pela comunidade, semelhante ao crowdfunding, é utilizado para treinar e validar a inteligência artificial, uma tecnologia de ponta que já não pertence apenas à elite, mas em que todos podem participar.
Hoje, com os LLM já relativamente maduros, por que ainda criar um ASI-1 Mini? É fácil de entender, ele preenche a lacuna entre Web3 e a fusão com a IA.
Atualmente, os LLMs (como ChatGPT, Grok) servem principalmente ambientes centralizados, enquanto o ASI-1 Mini é o primeiro LLM projetado para um ecossistema descentralizado. Ele não apenas torna a IA mais transparente e eficiente, mas também permite que os membros da comunidade se beneficiem diretamente do crescimento da IA.
A chegada do ASI-1 Mini marca a transição da IA de uma "caixa-preta" para uma "transparente", de "centralizada" para "descentralizada", de "ferramenta" para "ativo". Ele pode não apenas atuar na área da saúde (como o QBio), mas também demonstrar potencial em vários outros setores, como finanças, direito e pesquisa científica.
Este mês, a Fetch colaborou com a Rivalz para integrar o ASI-1 Mini no sistema de coordenação de dados Agentic (ADCS) da Rivalz, permitindo a inferência de IA em blockchain. Com esta colaboração, as aplicações descentralizadas poderão acessar diretamente capacidades avançadas de inferência de IA na blockchain.
O ambiente tradicional de blockchain é limitado em recursos, e os contratos inteligentes só podem lidar com tarefas leves, geralmente obtendo dados simples (como preços) através de oráculos, não sendo capazes de executar modelos de IA complexos diretamente. O ADCS resolve perfeitamente esse problema, realizando os cálculos complexos da inferência de IA fora da cadeia, com os resultados retornando de forma segura à blockchain, garantindo descentralização e confiança.