O Google retirou o seu modelo Gemma após relatos de alucinações em questões factuais, com a empresa a enfatizar que foi concebido para fins de desenvolvimento e pesquisa.
A empresa de tecnologia Google anunciou a retirada do seu modelo de IA Gemma após relatos de respostas imprecisas a perguntas factuais, esclarecendo que o modelo foi projetado exclusivamente para pesquisa e uso de desenvolvedores.
De acordo com a declaração da empresa, a Gemma já não está acessível através do AI Studio, embora continue disponível para desenvolvedores através da API. A decisão foi motivada por casos de não-desenvolvedores a utilizarem a Gemma através do AI Studio para solicitar informações factuais, o que não era a sua função pretendida.
O Google explicou que a Gemma nunca foi destinada a servir como uma ferramenta voltada para o consumidor, e a remoção foi feita para evitar mais mal-entendidos quanto ao seu propósito.
Na sua clarificação, o Google enfatizou que a família de modelos Gemma foi desenvolvida como ferramentas de código aberto para apoiar as comunidades de desenvolvedores e de pesquisa, em vez de assistência factual ou interação com o consumidor. A empresa observou que modelos abertos como o Gemma têm como objetivo incentivar a experimentação e a inovação, permitindo que os usuários explorem o desempenho do modelo, identifiquem problemas e forneçam feedback valioso.
O Google destacou que a Gemma já contribuiu para os avanços científicos, citando o exemplo do modelo Gemma C2S-Scale 27B, que recentemente desempenhou um papel na identificação de uma nova abordagem para o desenvolvimento de terapias contra o câncer.
A empresa reconheceu os desafios mais amplos que a indústria de IA enfrenta, como as alucinações — quando os modelos geram informações falsas ou enganosas — e a bajulação — quando produzem respostas agradáveis, mas imprecisas.
Esses problemas são particularmente comuns entre modelos abertos menores, como Gemma. O Google reafirmou seu compromisso em reduzir alucinações e melhorar continuamente a confiabilidade e o desempenho de seus sistemas de IA.
Google Implementa Estratégia em Múltiplas Camadas Para Reduzir Alucinações de IA
A empresa adota uma abordagem em múltiplas camadas para minimizar alucinações em seus grandes modelos de linguagem (LLMs), combinando fundamentação de dados, treinamento rigoroso e design de modelo, solicitação estruturada e regras contextuais, além de supervisão humana contínua e mecanismos de feedback. Apesar dessas medidas, a empresa reconhece que as alucinações não podem ser completamente eliminadas.
A limitação subjacente decorre de como os LLMs operam. Em vez de possuir uma compreensão da verdade, os modelos funcionam prevendo sequências de palavras prováveis com base em padrões identificados durante o treinamento. Quando o modelo carece de uma base suficiente ou encontra dados externos incompletos ou não confiáveis, pode gerar respostas que parecem credíveis, mas são factualmente incorretas.
Além disso, o Google observa que existem compensações inerentes na otimização do desempenho do modelo. Aumentar a cautela e restringir a saída pode ajudar a limitar alucinações, mas muitas vezes isso ocorre às custas da flexibilidade, eficiência e utilidade em certas tarefas. Como resultado, imprecisões ocasionais persistem, particularmente em áreas emergentes, especializadas ou sub-representadas onde a cobertura de dados é limitada.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
Google Retira Gemma AI do AI Studio, Reitera Propósito Exclusivo para Desenvolvedores em Meio a Preocupações de Precisão
Em Resumo
O Google retirou o seu modelo Gemma após relatos de alucinações em questões factuais, com a empresa a enfatizar que foi concebido para fins de desenvolvimento e pesquisa.
A empresa de tecnologia Google anunciou a retirada do seu modelo de IA Gemma após relatos de respostas imprecisas a perguntas factuais, esclarecendo que o modelo foi projetado exclusivamente para pesquisa e uso de desenvolvedores.
De acordo com a declaração da empresa, a Gemma já não está acessível através do AI Studio, embora continue disponível para desenvolvedores através da API. A decisão foi motivada por casos de não-desenvolvedores a utilizarem a Gemma através do AI Studio para solicitar informações factuais, o que não era a sua função pretendida.
O Google explicou que a Gemma nunca foi destinada a servir como uma ferramenta voltada para o consumidor, e a remoção foi feita para evitar mais mal-entendidos quanto ao seu propósito.
Na sua clarificação, o Google enfatizou que a família de modelos Gemma foi desenvolvida como ferramentas de código aberto para apoiar as comunidades de desenvolvedores e de pesquisa, em vez de assistência factual ou interação com o consumidor. A empresa observou que modelos abertos como o Gemma têm como objetivo incentivar a experimentação e a inovação, permitindo que os usuários explorem o desempenho do modelo, identifiquem problemas e forneçam feedback valioso.
O Google destacou que a Gemma já contribuiu para os avanços científicos, citando o exemplo do modelo Gemma C2S-Scale 27B, que recentemente desempenhou um papel na identificação de uma nova abordagem para o desenvolvimento de terapias contra o câncer.
A empresa reconheceu os desafios mais amplos que a indústria de IA enfrenta, como as alucinações — quando os modelos geram informações falsas ou enganosas — e a bajulação — quando produzem respostas agradáveis, mas imprecisas.
Esses problemas são particularmente comuns entre modelos abertos menores, como Gemma. O Google reafirmou seu compromisso em reduzir alucinações e melhorar continuamente a confiabilidade e o desempenho de seus sistemas de IA.
Google Implementa Estratégia em Múltiplas Camadas Para Reduzir Alucinações de IA
A empresa adota uma abordagem em múltiplas camadas para minimizar alucinações em seus grandes modelos de linguagem (LLMs), combinando fundamentação de dados, treinamento rigoroso e design de modelo, solicitação estruturada e regras contextuais, além de supervisão humana contínua e mecanismos de feedback. Apesar dessas medidas, a empresa reconhece que as alucinações não podem ser completamente eliminadas.
A limitação subjacente decorre de como os LLMs operam. Em vez de possuir uma compreensão da verdade, os modelos funcionam prevendo sequências de palavras prováveis com base em padrões identificados durante o treinamento. Quando o modelo carece de uma base suficiente ou encontra dados externos incompletos ou não confiáveis, pode gerar respostas que parecem credíveis, mas são factualmente incorretas.
Além disso, o Google observa que existem compensações inerentes na otimização do desempenho do modelo. Aumentar a cautela e restringir a saída pode ajudar a limitar alucinações, mas muitas vezes isso ocorre às custas da flexibilidade, eficiência e utilidade em certas tarefas. Como resultado, imprecisões ocasionais persistem, particularmente em áreas emergentes, especializadas ou sub-representadas onde a cobertura de dados é limitada.