bonjours,
ça fait 5 mois que je travaille sur un projet, pour mon niveau énorme.
Il est hors de question d'abandonner.
Mais voila mes méthodes, et idées deviennent ingérables dans le cadre d'un projet si gros.
Il s'agit de traitement/analyse de données, surtout de recherche multiple.
Un facteur important est le temps de calcul qui devrait être réduit au minimum.
Donc une usine a gaz avec sql ou autre ne serait pas une bonne solution.
(les données en question peuvent être comparées à des flux), donc inutile de se casser la tête avec sql, oracle ou...
Je cherche plusieurs entrées en même temps sur un flux.
Bon jusque la pas de souci, le problème c'est dans le nombre d'algorithmes (il devrait y'en avoir autour de 75 une fois le projet terminé).
Certains algorithmes se basent sur le résultat de ceux qui ont été exécutés précédemment. Certain sont appelés seulement si un autre donne un résultat précis.
Et j'ai a peine commencé à écrire le premier algorithme que je me rends compte que pour l'instant je ne suis pas capable de gérer un seul algorithme de façon adéquate.
alors 75...
Je voudrai demander si il existe des méthodes/modèles, purement théoriques, de gestion/recherche aussi complexe. Ou savoir si vous connaissez une "structure séquentielle" ?
Je ne sais pas trop exprimer mes idées et mes question, et c'est bien pour cela que j'ai besoin de conseils. Merci
A avoir jeter un coup d'oeil a la faq algo, je peut dire qu'une majoriter ecrasante des algorithme fonctionne comme "un tri en place". Sauf que ce n'est pas un tri mais une recherche.
Autrement dit, a part le resultat des recherche precedente (et encore..), je n'utilise que des calcule, pas de variable globale, ou apelle pour savoir si tel ou tel constante blalbabla... bref tous est calculer, et recaluler.
Si il vous manque des information pour y voire claire, n'esiter pas.
Partager