Bonjour à tous,

j'ai codé en Python sous Visual Studio Communauty 2017 un traitement batch d'analyse financière qui effectue 16 boucles imbriquées, c'est un script d'environ 300 lignes avec 3 fonctions qui font des accès répétitifs sur une base de données SQLite de 5 Mo. Ces 16 itérations imbriquées varies de 0 à 5, soit 6 cycles puissance 16, soit 2.821 milliards de cycles !
Pour essayer d'optimiser la vitesse de traitement, j'ai placé le code et la base de données en mémoire vive avec "Miray Ram Drive", les performances s'améliorent...
Traitement lancé hier soir vers 22hrs, ce matin 8h00, j'avais 55.000 cycles au compteur, a ce rythme là, je n'aurais pas le résultat avant des milliers de génération...

Pour que ce soit réalisable, j'ai pensé à 2 choses :
- la sérialisation : Si l'un d'entre vous à des connaissances ou des informations en ce sens, je suis preneur.
- L'utilisation des GPU : J'ai une carte graphique NVidia GTX 660 watercool, j'ai installé sur Visual Studio Communauty 2017 le langage Python 3.6 64 bits, l'ensembles des packages NVidia Cuda ... mon environnement est normalement prêt pour faire du TensorFlow avec le GPU, je me demandais si il n'était pas possible de détourner cette configuration pour faire tourner mon batch sur le GPU ?

Pour le début je vais aussi rétrécir mes itérations de 0 à 2, ce qui me fera déjà 43 millions de cycles.
A vous lire, Tchicken.