Bonjour à tous,
Je lis plusieurs fichiers qui ont des tailles assez énorme (on parle de plusieurs dizaines de Go) bloc par bloc. Par exemple, je récupère un sous-bloc à l'intérieur de 50Mo avec un seekg et un read.
J'ai été surpris de voir sous Linux que cette action faisait que le programme demandait un peu plus que la taille réelle du fichier (par exemple, si le fichier fait 20Go, j'ai une consommation virtuelle de 21Go). Est-ce un comportement connu/reconnu/avec lequel il faut faire car pas de solution ?
Partager