Je suis en train de préparer une migration de données par script.
Il y a des grosses tables de plus de 10 Go de données.
Je copie les données de la bd source vers la bd cible vide en faisant aussi des modifications sur certains champs via un INSERT
Je vais faire le transfert des données par morceaux pour ne pas faire exploser les logs - les contraintes / déclencheurs / indexes (sauf PK et Clustered) sont désactivés.

Après de rapides tests à la louche sur un serveur de test, je pense faire des morceaux qui correspondent approximativement à 15 Mo de données, rapidité / itération.
Est-ce que vous avez un retour d'expérience, une recette miracle ou une piste pour estimer la taille des morceaux ?