La tesis manuscrita fue aprobada por AIGC y pasó la revisión de IA, pero los humanos no pudieron demostrar que no era IA, lo cual es absurdo.

【#手写论文被判AIGC真人通不过AI审核# #人类靠瑕疵证明不是AI太荒诞#】Llega la temporada de graduaciones y los graduados están realmente abrumados con sus tesis. En las redes sociales, las quejas sobre “las tesis escritas a mano se consideran AIGC” se suceden sin parar. Lo más absurdo es que los errores de la IA no se limitan al texto: hay quien usa material de personas reales para crear avatares digitales, pero no puede pasar la “verificación de persona real” debido a que su aspecto no cumple con los estándares. Además, la normativa de evaluación de la IA es un “cajón negro” durante todo el proceso, sin criterios claros, lo que obliga a los humanos a “volverse mediocres” a propósito y a demostrar que no son IA usando imperfecciones. El caos en la detección de trabajos con AIGC es especialmente evidente.

El estudiante Xiao Da, de primer mano, revela que la escuela exige que la tasa de AIGC no supere el 30%. Pero en la prueba preliminar, su tesis escrita a mano llegó al 60%. Al final, tuvo que pagar varios cientos de yuanes por el servicio de la plataforma para reducirla hasta el 16%. Xiao Xiong probó varias herramientas gratuitas de detección y los resultados fueron todos altos. Entre compañeros, en sitios web gratuitos se midieron 30%-40%, mientras que el sistema de la escuela solo arrojó algo de poco más del 1%. Los datos de distintas plataformas difieren mucho. El reportero también comprobó en pruebas que las noticias originales antes de la popularización de los grandes modelos de IA, ¡resultaron con una sospecha de AIGC del 18.12%! En algunas secciones, la sospecha supera el 60%.

La “verificación de persona real” también protagoniza tropezones. La chica Xiao Lin, usando videos grabados por ella misma para crear un avatar digital, sin ningún procesamiento posterior con IA, aun así fue repetidamente clasificada como “no persona real”, y no pudo pasar la revisión. Resulta que el algoritmo de IA, para prevenir en exceso los falsos videos, es demasiado sensible: confunde a personas reales con rostros cuidados y estándares de desempeño, y los juzga como avatares digitales sintéticos de IA. Los internautas resonaron en masa: lo perfecto se convirtió en el “pecado original”. A diferencia de una búsqueda de similitudes de tesis bien definida, la detección de AIGC es completamente una operación tipo “caja negra”; la plataforma nunca publica la lógica de decisión. Para salir airosos, los graduados se ven obligados a resumir “técnicas para reducir la tasa” de AIGC: amontonar palabras vacías, sustituir estructuras de frases, desordenar la lógica e incluso cambiar oraciones fluidas hasta dejarlas hechas pedazos.

Y el supuesto “servicio para reducir AIGC” de la plataforma, en esencia, sigue siendo modificar con IA: no solo cobra por lucro, sino que también hace que la redacción de la tesis sea confusa. Xiao Xiong afirma de forma directa que incluso los agradecimientos escritos a mano se marcaron como AIGC. Después de modificar, las frases ya no tenían sentido, solo para adaptarse a la detección. La esencia de esta situación absurda es una “prueba de Turing inversa” lanzada por la IA contra los humanos. Expertos técnicos explican que, en la actualidad, las herramientas de detección no identifican “rasgos de la persona”, sino que, mediante análisis estadístico, capturan “rasgos no atribuibles a una máquina”. La IA entrena con datos de alta calidad y estándar: una tesis escrita a mano con buena fluidez y lógica rigurosa, o un video de persona real con rasgos bien arreglados y un desempeño natural, en cambio es juzgado como generado por IA por falta de la “tasa de confusión” común en humanos y de “imperfecciones aleatorias”.

La prueba de Turing tradicional consistía en comprobar si la IA se comportaba como un humano; ahora, se ha invertido por completo: ya no se necesita que los humanos verifiquen a la IA, sino que, por el contrario, deben demostrar que ellos mismos son personas. La evaluación de la IA aplica la “presunción de culpabilidad”: una vez que se considera al usuario sospechoso de AIGC, los humanos deben demostrar que están limpios. Escribir demasiado bien y tener un aspecto demasiado estándar hará que, ante el algoritmo, se pierdan las “credenciales de entrada humana”, obligando a todos a escribir mal a propósito, a aparentar deliberadamente aspereza y falta de pulido, usando lo imperfecto para obtener el reconocimiento de la IA. Cuando la excelencia se convierte en la razón de una mala clasificación, y cuando los humanos deben definirse mediante imperfecciones, la detección de AIGC ya se ha desviado completamente de su propósito original.

La aplicación burda y la falta de transparencia en las reglas no solo perjudican gravemente a los graduados, sino que también refleja la profunda paradoja en la era de la IA: la tecnología que debería servir a los humanos, en cambio aliena la expresión humana y el reconocimiento de la identidad. No es solo una dificultad temporal de la temporada de graduaciones, sino una crisis humanística que toda la sociedad debe afrontar con urgencia ante la oleada de la IA. (Reportero Song Shifeng, Zhang Bingjing)

Noticias masivas, interpretación precisa, todo en la app de Sina Finance

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado