Escrever uma tese à mão ser considerada como AI gerada e não passar na revisão de IA é tão absurdo que os humanos usam imperfeições para provar que não são IA

【#手写论文被判AIGC真人通不过AI审核# #人类靠瑕疵证明不是AI太荒诞#】A época de licenciaturas chegou, e os formandos andam às voltas com as dissertações, com a cabeça cheia de trabalhos. Nas redes sociais, multiplicam-se as queixas: “A dissertação manuscrita foi considerada AIGC”. O mais absurdo é que os erros de IA não se limitam ao texto: há quem use material de uma pessoa real para criar um digital human, mas falha na “verificação de pessoa real” por não cumprir padrões de aparência. E as regras de avaliação da IA são uma caixa negra ao longo de todo o processo, sem critérios claros, levando os humanos a terem de se “acomodar à mediocridade” de propósito, provando com imperfeições que não são AI. As anomalias na deteção de dissertações são particularmente evidentes. O estudante Xiao Da revelou que a escola estipula que a taxa de AIGC não pode exceder 30%; as suas dissertações manuscritas na primeira avaliação chegaram a 60%, e só depois de gastar algumas centenas de euros num serviço da plataforma é que a taxa desceu para 16%. O Xiong tentou várias ferramentas gratuitas de deteção e os resultados foram sempre demasiado altos: os colegas obtiveram 30%-40% em testes em sites gratuitos, enquanto o sistema interno da escola mostrava apenas pouco mais de 1% — há grandes discrepâncias nos dados entre diferentes plataformas. A verificação por parte do repórter também revelou que, antes da disseminação dos grandes modelos de IA, reportagens originais, afinal, foram detetadas com uma suspeita de AIGC de 18,12%; em alguns parágrafos, a suspeita chegou a ultrapassar 60%. A “verificação por pessoas reais” também protagoniza peripécias. A rapariga Xiao Lin usou vídeos gravados por si para criar um digital human, sem qualquer processamento posterior por IA, mas foi repetidamente classificada como “não é pessoa real”, não conseguindo passar na verificação. Afinal, para evitar que vídeos falsos sejam usados em excesso, o algoritmo de IA é demasiado sensível: a IA confundiu pessoas reais com rosto bem cuidado e padrões de desempenho com um digital human gerado por IA. Os internautas mostraram grande empatia: o “ser perfeito” acabou por se tornar uma “culpa original”. Em contraste com a verificação clara de plágio das dissertações, a deteção de AIGC é uma operação totalmente em caixa negra; a plataforma nunca publica a lógica de avaliação. Para conseguir passar, os formandos são forçados a resumir “técnicas para reduzir a taxa de AIGC”: amontoar palavras sem conteúdo, substituir estruturas de frases, embaralhar a lógica e até tornar frases fluidas tão fragmentadas quanto possível. E o alegado “serviço de redução de AIGC” da plataforma, na essência, continua a ser a alteração do texto com IA: além de cobrar e lucrar, deixa a expressão das dissertações confusa. O Xiong afirma que até os agradecimentos manuscritos foram marcados como AIGC; após as alterações, as frases já não fazem sentido, apenas para agradar à deteção. A essência deste fenómeno absurdo é uma “prova de Turing inversa” lançada pela IA aos humanos. Especialistas em tecnologia explicam que, atualmente, as ferramentas de deteção não identificam “traços das pessoas”; em vez disso, recorrem a uma análise estatística para captar “traços não-máquina”. Ao treinar com dados de alta qualidade e padronizados, a IA consegue dissertações manuscritas com escrita fluente e lógica rigorosa; mas um digital human feito com pessoas reais de aparência bem proporcionada e com desempenho natural, é, pelo contrário, classificado como gerado por IA, precisamente por faltar o “nível de confusão” e as “imperfeições aleatórias” comuns aos humanos. A prova de Turing tradicional era para verificar se a IA se assemelhava a um humano; agora foi completamente invertida: já não é necessário que o humano verifique a IA — é o humano que tem de provar que é humano. A avaliação da IA segue a “presunção de culpa”: depois de a IA classificar a suspeita de AIGC, os humanos são obrigados a provar a própria inocência. Quando se escreve demasiado bem e se tem demasiado um aspeto demasiado padronizado, perde-se a “licença de entrada de pessoa humana” perante o algoritmo, obrigando todos a escreverem artigos malfeitos de propósito, e a parecerem deliberadamente grosseiros, usando o imperfeito para obter o reconhecimento da IA. Quando a excelência se torna razão para ser mal detetada, e quando os humanos têm de se definir a partir de imperfeições, a deteção de AIGC já se afastou há muito da intenção original. A aplicação tecnológica grosseira e a falta de transparência nas regras não prejudicam apenas os formandos; também refletem o paradoxo profundo da era da IA: uma tecnologia que deveria servir os humanos, acaba por alienar a expressão e o reconhecimento da identidade humana. Isto não é apenas uma dificuldade temporária na época das licenciaturas, mas também uma crise humanística que a sociedade, perante a vaga da IA, precisa urgentemente de encarar. (Repórter Song Shifeng Zhang Bingjing)

Grande quantidade de informações, análise precisa — tudo na app da Sina Finance

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar