Bonjour,
Pour info, je suis utilisateur depuis pas mal d'année de FB et par expérience j'ai des applications avec des base de 100 Go dans une centaines de tables.
ça passe mais c'est déjà lent surtout pendant les opérations de DELETE et SELECT, PURGE avec environ 2000 transaction/minute.
Je précise que 80% du volume de données est dans une même table soit entre 80 à 100 millions d'enregistrement(à 150 octet). c'est déjà très lent surtout lors des opérations delete, rollback et recalcul d'index.
Pour un projet particulier je dois prévoir de stocker plus de 2 milliard dans cette table principale soit un volume de plus 300 Go dans la base avec une config matérielle limité type mini serveur Raid 5.
Je sais par avance et par expérience que c'est hors de question avec FB dans la configuration actuelle de mes tables.
J'envisage donc de stocker uniquement dans cette table principale des aggrégat (base d'une heure) et de stocker les données brutes à l'extérieur sous forme de fichier CSV.
ça permet de limite la taille de la base FB tout en utilisant les capacités du disque en fichier beaucoup moins limitée en volume (une sorte de NoSql personnel).
Ensuite à l'exploitation, j'utilise des données aggrégées rapidement accessible dans FB (puisque compressé à 1h) et si j'ai besoin de données brutes j'utilise les fichiers sur disque en ligne de façon transparente pour l'utilisateur.
Je précise que la fragmentation en plusieurs base n'est pas envisageable.
Avez vous été confronter à un nombre si important d'enregistrement dans FB et dans une même table > 2 milliard ?
Y t il des moyens plus "normalisé" de traiter le PB, complément à FB ? bigdata ?
Partager