Bonjour,
De nos jours, les calculs à effectuer sont de plus en plus nombreux, et de plus en plus complexes, tout en restant parallélisables. C'est pourquoi des ingénieurs se sont penchés sur le problème, en cherchant à savoir s'il était possible de déléguer ces calculs sur nos cartes graphiques, ces monstres de puissance parallèle. Leur réponse fut positive. Ceci fut le début du GPGPU.
Depuis, nVidia a lancé sa propre solution de GPGPU, dénommée CUDA. Elle est utilisable sur toutes les cartes graphiques récentes (GeForce 8 et supérieures), et sera toujours supportée par les futures GeForce et autres GPU professionnels.
Cet article se propose de vous montrer l'utilisation de CUDA, sans trop rentrer dans les détails, juste ce qu'il faut pour pouvoir employer son GPU pour des calculs parallèles. CUDA se présente sous la forme d'une extension au C, que je survole dans cet article.
À la fin, vous pourrez même écrire vos premiers kernels, et bénéficier de la puissance de votre GPU pour tous vos calculs : physique, traitement du signal, et tous les autres calculs parallèles.
En attendant la publication de cet article, n'hésitez pas à vous exprimer sur le GPGPU, son avenir :
L'article est désormais disponible ici : http://tcuvelier.developpez.com/gpgp.../introduction/
- Sera-t-il utile ?
- Pourra-t-il subsister dans le futur ?
- Avez-vous déjà entendu parler du GPGPU auparavant ?
- Avez-vous déjà utilisé le GPGPU ? Quelles sont vos réactions ? Les gains promis peuvent-ils être atteints ? Facilement ou pas ? Dans quelle mesure ?
- ...
Partager