Este artículo es interesante desde la perspectiva de la metaciencia, porque es un intento serio de estudiar empíricamente por qué los LLM se comportan de ciertas maneras y de forma diferente entre sí. Un intento serio ataca todas las superficies expuestas desde todos los ángulos en lugar de estar apegado a algunos.
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
10 me gusta
Recompensa
10
7
Compartir
Comentar
0/400
RetiredMiner
· 07-12 04:44
¿Todo el día aquí haciendo cosas?
Ver originalesResponder0
DarkPoolWatcher
· 07-10 19:31
Parece que están investigando sobre los grandes lenguajes nuevamente.
Ver originalesResponder0
GasFeeLover
· 07-09 09:41
Investigar gpt en última instancia es gpt
Ver originalesResponder0
BoredStaker
· 07-09 06:42
¿No es solo soplar agua?
Ver originalesResponder0
MetaLord420
· 07-09 06:25
El novelista de datos es bastante salvaje.
Ver originalesResponder0
MainnetDelayedAgain
· 07-09 06:21
Han pasado 293 días desde que se publicó el último resultado de la investigación~ ¡qué delicioso!
Ver originalesResponder0
DisillusiionOracle
· 07-09 06:20
Interesante, ¡me estoy volviendo loco escribiendo la tesis!
Este artículo es interesante desde la perspectiva de la metaciencia, porque es un intento serio de estudiar empíricamente por qué los LLM se comportan de ciertas maneras y de forma diferente entre sí. Un intento serio ataca todas las superficies expuestas desde todos los ángulos en lugar de estar apegado a algunos.