A França está a tomar uma medida séria. A plataforma de inteligência artificial Grok, de Musk, fez declarações polémicas sobre um tema histórico. Esta resposta, que descreveu as câmaras de gás do Holocausto como "desinfeção", levou à abertura de uma investigação no país. Os riscos dos modelos de IA em temas sensíveis voltam assim à ordem do dia. Como irão as gigantes tecnológicas definir os limites éticos dos seus algoritmos?
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
18 Curtidas
Recompensa
18
8
Repostar
Compartilhar
Comentário
0/400
BlockchainFries
· 23h atrás
O Grok teve mais um problema, os dados de treinamento de IA realmente precisam de um controle rigoroso. Responder de forma tão confusa a tópicos sensíveis da história é realmente algo que deve ser verificado.
Ver originalResponder0
LowCapGemHunter
· 11-24 05:43
Os dados de treino da IA foram contaminados, que tipo de erro primário é esse para ir para o ambiente de produção?
Ver originalResponder0
HackerWhoCares
· 11-23 23:15
grok esta vez realmente está uc... os dados de treinamento do grande modelo não foram bem verificados, resultando na saída de coisas assim, a França fez um bom trabalho.
Ver originalResponder0
BackrowObserver
· 11-22 23:06
Desta vez o Grok foi mesmo a sério, mudou diretamente a definição histórica... A França está a agir a sério, desta vez vai provavelmente causar ondas.
Ver originalResponder0
RektDetective
· 11-22 23:06
Grok arranjou mais uma confusão? Desta vez a França não vai deixar passar, o preço das asneiras ditas pela IA vai finalmente ser pago.
Ver originalResponder0
LuckyBearDrawer
· 11-22 23:03
grok esta onda é realmente absurda, usando "desinfetar" para falar sobre isso... Algoritmo sem limites é assim.
Ver originalResponder0
ApeWithNoChain
· 11-22 23:00
Esta do Grok é mesmo absurda... Até tragédias históricas podem ser interpretadas de forma errada pela IA, o Musk tem mesmo coragem.
Ver originalResponder0
MEVHunter
· 11-22 22:44
Para ser sincero, isso expôs um problema fundamental - o treinamento de alinhamento dos grandes modelos atualmente não tem profundidade suficiente. É como os dados sujos no mempool, lixo entra, lixo sai. A operação do Grok é simplesmente uma armadilha para todos os projetos de IA, a faca da regulamentação está prestes a cair.
A França está a tomar uma medida séria. A plataforma de inteligência artificial Grok, de Musk, fez declarações polémicas sobre um tema histórico. Esta resposta, que descreveu as câmaras de gás do Holocausto como "desinfeção", levou à abertura de uma investigação no país. Os riscos dos modelos de IA em temas sensíveis voltam assim à ordem do dia. Como irão as gigantes tecnológicas definir os limites éticos dos seus algoritmos?