La semaine dernière, @NVIDIA a introduit CUDA 13.1, et cela inclut un nouveau paradigme de programmation de calcul parallèle - les tuiles. Le CUDA "traditionnel" expose un modèle matériel et de programmation à instruction unique, multiples fils (SIMT) pour les développeurs. 1/6
Ce paradigme permet une flexibilité maximale, mais peut devenir fastidieux et difficile à optimiser. Le paradigme des tuiles prend les tenseurs comme objets fondamentaux et fonctionne à partir de cela. C'est une couche intermédiaire vers des langages de niveau supérieur. 2/6
La programmation basée sur des tuiles vous permet de programmer votre algorithme en spécifiant des morceaux de données, ou tuiles, puis en définissant les calculs effectués sur ces tuiles. 3/6
Vous n'avez pas besoin de définir comment votre algorithme est exécuté au niveau élément par élément : le compilateur et l'exécution s'en chargeront pour vous. 4/6
Il est intéressant de noter que la programmation basée sur des tuiles sera d'abord disponible pour le développement Python, grâce à cuTile Python. Le langage de programmation traditionnellement de haut niveau pour CUDA, C++, sera publié plus tard. 5/6
10,79K