Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Apple a dévoilé le modèle LiTo : génération d'objets 3D à partir d'une seule image, l'IA reproduit fidèlement les éclairages multi-vues
IT之家 17 mars – Selon un article publié hier (16 mars) par le média technologique 9to5Mac, l’équipe de recherche en intelligence artificielle d’Apple a publié un rapport de recherche annonçant avoir résolu une problématique clé dans le domaine de la reconstruction 3D : à partir d’une seule image plane, il est désormais possible de reconstruire un objet 3D complet.
Ce brevet décrit un modèle appelé LiTo (Surface Light Field Tokenization), qui brise la limitation des méthodes traditionnelles nécessitant l’entrée d’images prises sous plusieurs angles. Après la reconstruction de l’objet 3D, lorsque l’utilisateur change de point de vue, les effets lumineux tels que les reflets et les hautes lumières générés par ce modèle conservent une grande fidélité physique et une cohérence élevée.
Le cœur de cette avancée réside dans l’application innovante de l’“espace latent” (Latent Space). En apprentissage automatique, l’espace latent permet de compresser des informations complexes en vecteurs mathématiques multidimensionnels, réduisant ainsi considérablement le coût computationnel.
Le modèle LiTo a introduit une représentation unifiée en espace latent 3D, codant des données de champ lumineux de surface échantillonnées aléatoirement en un ensemble de vecteurs compacts. Cela signifie que le modèle n’a pas besoin de mémoriser chaque détail visuel de manière rigide, mais peut plutôt décrire mathématiquement l’objet tout en maîtrisant sa forme physique et les lois fondamentales de l’interaction de la lumière avec sa surface.
Concrètement, l’encodeur LiTo se charge de “compresser l’information”, transformant la structure géométrique et les caractéristiques d’apparence liées à l’angle de vue présentes dans l’image d’entrée en un code succinct dans l’espace latent.
Ensuite, le décodeur effectue une “décompression inverse”, utilisant ces codes fondamentaux pour restaurer intégralement l’objet 3D. Ce mécanisme bidirectionnel permet au modèle de reproduire avec précision des effets lumineux complexes tels que les reflets de surface et la réflexion de Fresnel sous des conditions d’éclairage variées.
Pour développer ce modèle, les chercheurs d’Apple ont entraîné intensément des milliers d’objets 3D rendus sous 150 angles différents et trois conditions d’éclairage distinctes. Le système extrait continuellement de petits échantillons de données pour entraîner le décodeur à restituer l’objet complet sous différents éclairages et perspectives.
Au final, le modèle possède la capacité de prédire sa représentation latente 3D à partir d’une seule image. Lors des tests comparatifs officiels publiés par Apple, LiTo a nettement surpassé le modèle TRELLIS existant en termes de fidélité de restitution des effets lumineux multi-angles.