"Encore une époque et nous serons en or" — a dit chaque ingénieur déboguant son modèle à 3h du matin. Un autre cycle d'entraînement, un autre ajustement d'hyperparamètres, un autre tour de pénalités de récompense. Le cycle ne se termine jamais. Vous vous dites que cet ajustement va enfin réussir à maîtriser le comportement. Spoiler : ça ne fonctionnera pas. Mais nous y revoilà de toute façon. L'enfer classique de l'optimisation.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
15 J'aime
Récompense
15
5
Reposter
Partager
Commentaire
0/400
BlockDetective
· 11-08 05:13
Réglages nocturnes, le diable...
Voir l'originalRépondre0
NFTFreezer
· 11-08 05:10
Tous ceux qui s'occupent d'apprentissage automatique comprennent. Ne me demandez pas pourquoi.
Voir l'originalRépondre0
Blockwatcher9000
· 11-08 05:07
Ah, encore l'enfer des réglages.
Voir l'originalRépondre0
ProposalManiac
· 11-08 05:04
Ce piège de mécanisme cyclique manque de compatibilité incitative et ne pourra jamais produire de bons résultats.
Voir l'originalRépondre0
BrokeBeans
· 11-08 04:57
L'ingénieur en ajustement de paramètres a beaucoup de larmes amères.
"Encore une époque et nous serons en or" — a dit chaque ingénieur déboguant son modèle à 3h du matin. Un autre cycle d'entraînement, un autre ajustement d'hyperparamètres, un autre tour de pénalités de récompense. Le cycle ne se termine jamais. Vous vous dites que cet ajustement va enfin réussir à maîtriser le comportement. Spoiler : ça ne fonctionnera pas. Mais nous y revoilà de toute façon. L'enfer classique de l'optimisation.