3 pièce(s) jointe(s)
Problème récurrent de PATH sous Windows Path, [sous python windows]
Bonjour,
Cela fait 2 jours que je peine à maintenir le PATH de python, c'est à dire pouvoir exécuter des script directement de mon dossier personnel cela ne fonctionne un hello.py s'exécute une seule fois, et puis plus rien, la fameuse erreur..
Code:
1 2 3 4 5 6
|
>>> python hello.py
File "<stdin>", line 1
python hello.py
^
SyntaxError: invalid syntax |
Pourtant les liens Paths des variables d'environnement sont bien ajoutés, et j'exécute python à l'intérieur de mon dossier perso.
Code:
1 2 3
|
C:\Program Files\Python39\
C:\Program Files\Python39\Scripts\ |
Avez-vous une idée sur la provenance de ce problème ?
Désolé je sais que c'est une question bête, mais, je ne trouve pas d'issue..
Merci pour votre aide.
Nouveau pythonnien
Pièce jointe 589105
Pièce jointe 589106
Pièce jointe 589107
Exécution du script, console ne réagit pas (scraper)
Bonjour Sve@r,
Je te remercie pour ta réponse, je viens de tester et ça marche !
Effectivement, je n'avais jamais fait attention à cette subtilité ! Je croyais qu'on lance tout et les instruction et les fichier ".py" de l'interpréteur..
Maintenant j'ai un deuxième soucis (je ne sais pas si je dois ouvrir un topique dédié), c'est que quand j'exécute mon code rien ne se passe. Je suis un tuto pour faire un scraper, pour récupérer des données sur une structure html simple de type (table, tbody, tr, td), je n'ai aucune erreur bizarrement..
Voila le code
Windows 10
Librairie Scraper bien importée
Voila le script
Code:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22
| # -*- coding: utf-8 -*-
import scrapy
from scrapy.selector import Selector
class BlogSpider(scrapy.Spider):
name = 'blogspider'
start_urls = ['https://www.arar.mom.fr/banadora/echantillon.php?num=22']
def parse(self, response):
for title in response.css('table'):
yield {'item': title.css('table ::text').extract_first()}
next_pages = response.css('p > a').extract()
for index, page in enumerate(next_pages):
if 'class="active"' in page:
n_page = next_pages[index + 1]
next_page = Selector(text=n_page).xpath('//a/@href').extract()
next_page_url = next_page[0]
if index == (len(next_pages) - 1):
next_page = False
if next_page:
yield scrapy.Request(response.urljoin(next_page_url), callback=self.parse) |
Structure à scraper par page
Code:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33
| <table width="100%" border="0" align="center">
<tbody>
<tr>
<td>
<table width="100%" border="0">
<tbody>
<tr>
<td width="20%">
<img src="flech_do.gif">
<b> Content </b> :
</td>
<td>Data</td>
</tr>
<tr>
<td width="20%">
<img src="flech_do.gif">
<b> Content</b> :
</td>
<td>Data</td>
</tr>
<tr>
<td width="20%">
<img src="flech_do.gif">
<b> Content </b> :
</td>
<td>Data</td>
</tr>
</tbody>
</table>
</td>
</tr>
</tbody>
</table> |