déja dit ! on se fiche que ton programme soit en python !!!
En premier on regarde
https://www.pmu.fr/robots.txt
Ensuite chaque site a ces propres réglages (pour ne pas être attaqué), on ne va pas faire une étude de ton site à ta place. La temporisation est normalement la première chose, parfois il faut une temporisation aléatoire, parfois ...
-----------
Ensuite chaque site web est
très très différent et si tes pages utilisent javascript pour la navigation ou datas, il va falloir utiliser un outil externe (pas écrit en python).
Commence a demander a ton robby d'analyser tes pages web ! si il n'est pas capable alors abandonne sans te poser de question (ou alors apprend par toi même).
Note : si tu ne connais pas python, alors pourquoi l'utiliser ? IA est bête, toi tu es plus intelligent ! rien ne t'oblige. Perso je fais du web scraping plus souvent en go que python
https://go-colly.org/
https://www.zenrows.com/blog/seleniu...nium-in-golang
...
Tu peux aussi en javascript ...