IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Python Discussion :

Installation d'un RAG local


Sujet :

Python

  1. #1
    Membre averti
    Homme Profil pro
    Conseil - Consultant en systèmes d'information
    Inscrit en
    Janvier 2016
    Messages
    39
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Bouches du Rhône (Provence Alpes Côte d'Azur)

    Informations professionnelles :
    Activité : Conseil - Consultant en systèmes d'information
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Janvier 2016
    Messages : 39
    Par défaut Installation d'un RAG local
    Bonjour,

    j'essaie d'installer un RAG sur un PC en suivant ce tutoriel :

    https://hackernoon.com/lang/fr/cr%C3%A9ez-votre-propre-application-rag-un-guide-%C3%A9tape-par-%C3%A9tape-pour-configurer-LLM-localement-%C3%A0-l'aide-d'ollama-python-et-chromadb

    mais je bute très vite sur la création de l'environnement virtuel :
    la fonction "source" n'est pas reconnue.
    J'ai installé python 3.13 avec la bibliothèque d'applications Windows.

    Pourtant il ne semble rien y avoir de très complexe.

    Qu'en pensez-vous ?

    Cordialement,

  2. #2
    Expert confirmé

    Homme Profil pro
    Inscrit en
    Octobre 2008
    Messages
    4 308
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations forums :
    Inscription : Octobre 2008
    Messages : 4 308
    Par défaut
    Salut,
    Code : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
     
    $ source venv/bin/activate # Windows # venv\Scripts\activate
    Si je comprends bien, sous Windows tu dois faire uniquement:
    Code : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
     
    $ venv\Scripts\activate
    Après, j'ai vu leurs codes source, les retours ligne et indentations sont manquants partout. Tu vas devoir les replacer toi-même.
    Je te souhaite bien du plaisir.

  3. #3
    Expert confirmé
    Avatar de fred1599
    Homme Profil pro
    Lead Dev Python
    Inscrit en
    Juillet 2006
    Messages
    4 476
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Meurthe et Moselle (Lorraine)

    Informations professionnelles :
    Activité : Lead Dev Python
    Secteur : Arts - Culture

    Informations forums :
    Inscription : Juillet 2006
    Messages : 4 476
    Par défaut
    Ou utiliser WSL...
    Celui qui trouve sans chercher est celui qui a longtemps cherché sans trouver.(Bachelard)
    La connaissance s'acquiert par l'expérience, tout le reste n'est que de l'information.(Einstein)

  4. #4
    Membre averti
    Homme Profil pro
    Conseil - Consultant en systèmes d'information
    Inscrit en
    Janvier 2016
    Messages
    39
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Bouches du Rhône (Provence Alpes Côte d'Azur)

    Informations professionnelles :
    Activité : Conseil - Consultant en systèmes d'information
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Janvier 2016
    Messages : 39
    Par défaut
    Bonjour,

    Citation Envoyé par VinsS Voir le message
    Salut,
    Code : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
     
    $ source venv/bin/activate # Windows # venv\Scripts\activate
    Si je comprends bien, sous Windows tu dois faire uniquement:
    Code : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
     
    $ venv\Scripts\activate
    Après, j'ai vu leurs codes source, les retours ligne et indentations sont manquants partout. Tu vas devoir les replacer toi-même.
    Je te souhaite bien du plaisir.
    Merci c'est bien cela.
    Une autre solution ? J'ai demandé à Chat GPT de me fournir du code Python mais d'un point de vue probabiliste cela marche, enfin seulement d'un point de vue probabiliste.
    Cordialement,

  5. #5
    Membre averti
    Homme Profil pro
    Conseil - Consultant en systèmes d'information
    Inscrit en
    Janvier 2016
    Messages
    39
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Bouches du Rhône (Provence Alpes Côte d'Azur)

    Informations professionnelles :
    Activité : Conseil - Consultant en systèmes d'information
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Janvier 2016
    Messages : 39
    Par défaut
    Bonjour,


    J’ai demandé à Chat GPT de me générer un nouveau code. J’ai crée un répertoire Rag_Single dans lequel sont placés :
    • un répertoire docs (qui contient les documents à indexer pour le RAG)
    • le code python générée

    En ligne de commande, je me déplace dans ce répertoire Rag_single, créé un environnement virtuel (.\.venv\Scripts\activate), un répertoire venv est ajouté à la liste précédente puis je lance le programme Python. Il s’exécute bien et créé la base chroma_db dans le répertoire Rag_single

    La où cela se complique c’est pour l’utilisation du RAG lui-même
    • l’ouverture d’une nouvelle fenêtre d'invite de commande
    • l’interrogation du port 11434 (message d’erreur : « une seule utilisation de chaque adresse de socket est autorisée »), une autre instance d’Ollama semble lancée
    • des time-out sur le lancement du LLM (Mistral).
    • l’ouverture de la page du navigateur web permettant de saisir la question du RAG

    A ce moment ChatGPT me fait boucler sur des instructions contradictoires.

    Est-ce que des indications générales sur Ollama sont suffisantes ou vous faut-il le code ?

    Cordialement

  6. #6
    Expert confirmé
    Avatar de fred1599
    Homme Profil pro
    Lead Dev Python
    Inscrit en
    Juillet 2006
    Messages
    4 476
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Meurthe et Moselle (Lorraine)

    Informations professionnelles :
    Activité : Lead Dev Python
    Secteur : Arts - Culture

    Informations forums :
    Inscription : Juillet 2006
    Messages : 4 476
    Par défaut
    Est-ce que vous avez respecté le tutoriel en exécutant la commande ollama serve ?
    Celui qui trouve sans chercher est celui qui a longtemps cherché sans trouver.(Bachelard)
    La connaissance s'acquiert par l'expérience, tout le reste n'est que de l'information.(Einstein)

  7. #7
    Membre averti
    Homme Profil pro
    Conseil - Consultant en systèmes d'information
    Inscrit en
    Janvier 2016
    Messages
    39
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Bouches du Rhône (Provence Alpes Côte d'Azur)

    Informations professionnelles :
    Activité : Conseil - Consultant en systèmes d'information
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Janvier 2016
    Messages : 39
    Par défaut
    Bonjour,

    Mon portable : Core i5 E5200, 12 Gb de RAM, pas de carte graphique, W10
    Pourtant avec MSTYstudio je peux exécuter Qwen 3 qui a 6 milliards de paramètres par exemple.

    Pour des raisons que j'ignore il y avait 2 cartes graphiques installées sur mon PC : une a été désactivée
    et dans les variables d'environnement ollama_no gpu est à 1.

    Pour Ollama
    Dans une première fenêtre Ollama serve s'exécute
    Dans une deuxième fenêtre
    - Ollama list donne bien les modèles présents
    - Ollama run qwen2.5:0.5b "Bonjour" ne répond jamais

    Le test a été reproduit avec d'autres petits modèles (exemple : gemma 1b)

    Qu'en pensez-vous ?

    Cordialement,

  8. #8
    Expert confirmé
    Avatar de fred1599
    Homme Profil pro
    Lead Dev Python
    Inscrit en
    Juillet 2006
    Messages
    4 476
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Meurthe et Moselle (Lorraine)

    Informations professionnelles :
    Activité : Lead Dev Python
    Secteur : Arts - Culture

    Informations forums :
    Inscription : Juillet 2006
    Messages : 4 476
    Par défaut
    Ça me semble vieux comme CPU,

    Utilisez un outil comme CPU-Z, regardez la case "instructions", si AVX et AVX2 sont absents, vous n'avez pas les conditions requises pour la version standard Ollama.
    Celui qui trouve sans chercher est celui qui a longtemps cherché sans trouver.(Bachelard)
    La connaissance s'acquiert par l'expérience, tout le reste n'est que de l'information.(Einstein)

  9. #9
    Membre averti
    Homme Profil pro
    Conseil - Consultant en systèmes d'information
    Inscrit en
    Janvier 2016
    Messages
    39
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Bouches du Rhône (Provence Alpes Côte d'Azur)

    Informations professionnelles :
    Activité : Conseil - Consultant en systèmes d'information
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Janvier 2016
    Messages : 39
    Par défaut
    Citation Envoyé par fred1599 Voir le message
    Ça me semble vieux comme CPU,

    Utilisez un outil comme CPU-Z, regardez la case "instructions", si AVX et AVX2 sont absents, vous n'avez pas les conditions requises pour la version standard Ollama.
    Bonjour,

    Merci. Les 2 instructions sont présentes.

    Cordialement,

  10. #10
    Expert confirmé
    Avatar de fred1599
    Homme Profil pro
    Lead Dev Python
    Inscrit en
    Juillet 2006
    Messages
    4 476
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Meurthe et Moselle (Lorraine)

    Informations professionnelles :
    Activité : Lead Dev Python
    Secteur : Arts - Culture

    Informations forums :
    Inscription : Juillet 2006
    Messages : 4 476
    Par défaut
    Vous êtes sûr pour le nom du CPU ?

    Core i5 E5200 serait pas plutôt Core i5-5200U ?
    Celui qui trouve sans chercher est celui qui a longtemps cherché sans trouver.(Bachelard)
    La connaissance s'acquiert par l'expérience, tout le reste n'est que de l'information.(Einstein)

  11. #11
    Membre averti
    Homme Profil pro
    Conseil - Consultant en systèmes d'information
    Inscrit en
    Janvier 2016
    Messages
    39
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Bouches du Rhône (Provence Alpes Côte d'Azur)

    Informations professionnelles :
    Activité : Conseil - Consultant en systèmes d'information
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Janvier 2016
    Messages : 39
    Par défaut
    Oui vous avez raison, excusez-moi.

  12. #12
    Expert confirmé
    Avatar de fred1599
    Homme Profil pro
    Lead Dev Python
    Inscrit en
    Juillet 2006
    Messages
    4 476
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Meurthe et Moselle (Lorraine)

    Informations professionnelles :
    Activité : Lead Dev Python
    Secteur : Arts - Culture

    Informations forums :
    Inscription : Juillet 2006
    Messages : 4 476
    Par défaut
    Je me suis un peu renseigné, et déjà il faut mettre à jour votre tuto, il n'est plus correct, et vous ne pouvez pas utiliser python 3.13 (incompatible avec chromadb).

    1. PRÉREQUIS SYSTÈME
    Configuration matérielle minimale :

    Processeur : Intel Core i5 ou équivalent (4 cœurs minimum)
    RAM : 8 GB minimum, 12 GB recommandé
    Espace disque : 15 GB minimum (modèles + base vectorielle)
    Système : Windows 10 ou Windows 11 (64 bits)

    IMPORTANT :

    Python 3.12 UNIQUEMENT (pas 3.13 - incompatible avec ChromaDB)

    2. INSTALLATION DE PYTHON 3.12

    Étape 2.1 : Télécharger Python 3.12

    Téléchargez Python 3.12 (dernière version) depuis :
    https://www.python.org/downloads/
    NE PAS installer Python 3.13 - ChromaDB est incompatible !

    Étape 2.2 : Installer Python


    Lancez l'installateur python-3.12.x-amd64.exe
    Cochez "Add python.exe to PATH" (IMPORTANT)
    Cliquez sur "Install Now"
    Attendez la fin de l'installation
    Cliquez sur "Disable path length limit" si proposé

    Étape 2.3 : Vérifier l'installation

    Ouvrez PowerShell et exécutez :
    Résultat attendu :
    Si vous voyez une autre version ou une erreur :

    Redémarrez votre ordinateur
    Vérifiez que Python 3.12 est dans le PATH
    Désinstallez les anciennes versions de Python

    Étape 2.4 : Mettre à jour pip

    Code : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
     
    python -m pip install --upgrade pip
    3. INSTALLATION D'OLLAMA SUR WINDOWS

    Étape 3.1 : Télécharger Ollama

    Téléchargez l'installateur Windows depuis :

    https://ollama.com/download
    Fichier : OllamaSetup.exe (~100 MB)

    Étape 3.2 : Installer Ollama

    Lancez OllamaSetup.exeSuivez les étapes d'installation (défaut OK)
    L'installation se fait dans : %LOCALAPPDATA%\Programs\Ollama
    Un service Windows est créé automatiquement
    Ollama démarre automatiquement au boot

    IMPORTANT sur Windows :

    Ollama s'installe comme service d'arrière-plan
    Le service démarre automatiquement
    NE PAS exécuter ollama serve manuellement
    Le port 11434 est utilisé automatiquement

    Étape 3.3 : Vérifier qu'Ollama fonctionne

    Méthode 1 : Navigateur

    Ouvrez dans votre navigateur :
    http://localhost:11434/

    Méthode 2 : PowerShell

    Étape 3.4 : Tester Ollama

    si aucun modèle installé :

    Si vous voyez une erreur de connexion :

    Vérifiez dans le Gestionnaire des tâches qu'ollama.exe est actif
    Redémarrez le service Ollama : Services Windows → Chercher "Ollama" → Redémarrer

    4. CONFIGURATION DE L'ENVIRONNEMENT PYTHON

    Étape 4.1 : Créer le répertoire du projet

    Ouvrez PowerShell et créez votre projet :
    Code : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
    3
    4
    5
     
    mkdir C:\RAG_Local
    cd C:\RAG_Local
    mkdir documents
    mkdir scripts
    Structure créée :

    Code : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
    3
    4
    5
    6
     
    C:\RAG_Local
    ├── documents\     (vos fichiers PDF/TXT)
    ├── scripts\       (vos scripts Python)
    ├── .venv\         (environnement virtuel - sera créé)
    └── chroma_db\     (base vectorielle - sera créée)
    Étape 4.2 : Créer l'environnement virtuel

    Code : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
     
    python -m venv .venv
    Étape 4.3 : Activer l'environnement virtuel

    Code : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
     
    .venv\Scripts\Activate.ps1
    Si vous avez une erreur d'exécution de scripts :
    Code : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
     
    Set-ExecutionPolicy -ExecutionPolicy RemoteSigned -Scope CurrentUser
    Puis réessayez d'activer :
    Code : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
     
    .venv\Scripts\Activate.ps1
    Résultat attendu - votre prompt change :
    Code : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
     
    (.venv) PS C:\RAG_Local>
    Important : Vous devez voir cela au début de votre ligne de commande.

    Étape 4.4 : Mettre à jour pip dans l'environnement

    Code : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
     
    python -m pip install --upgrade pip setuptools wheel
    5. INSTALLATION DES DÉPENDANCES LANGCHAIN

    Étape 5.1 : Installer les packages de base

    Code : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
    3
    4
    5
     
    pip install langchain==1.0.3
    pip install langchain-core==1.0.2
    pip install langchain-community==0.4.1
    pip install langchain-text-splitters==0.3.0
    Étape 5.2 : Installer les intégrations Ollama et Chroma

    Code : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
    3
    4
     
    pip install langchain-ollama==1.0.0
    pip install langchain-chroma==1.0.0
    pip install chromadb==1.3.0
    Étape 5.3 : Installer les dépendances de traitement

    Code : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
    3
     
    pip install ollama==0.6.0
    pip install pypdf==6.1.3
    Étape 5.4 : Créer le fichier requirements.txt

    Créez un fichier requirements.txt dans C:\RAG_Local :

    Code : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
     
    LangChain Core (v1.0)
    langchain==1.0.3
    langchain-core==1.0.2
    langchain-community==0.4.1
    langchain-text-splitters==0.3.0
    Intégrations spécifiques
    langchain-ollama==1.0.0
    langchain-chroma==1.0.0
    Dépendances
    chromadb==1.3.0
    ollama==0.6.0
    pypdf==6.1.3
    Optionnel : pour .docx
    python-docx==1.1.2
    Pour installer depuis le fichier :

    Code : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
     
    pip install -r requirements.txt
    Étape 5.5 : Vérifier l'installation

    Code : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
     
    pip list | findstr "langchain|chromadb|ollama"
    6. TÉLÉCHARGEMENT DES MODÈLES OLLAMA

    Étape 6.1 : Télécharger le modèle LLM (Gemma 3 1B)

    Code : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
     
    ollama pull gemma3:1b
    Étape 6.2 : Télécharger le modèle d'embeddings (all-minilm)

    Code : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
     
    ollama pull all-minilm
    Étape 6.3 : Modèle alternatif (meilleure qualité)

    Si vous souhaitez une meilleure qualité de réponse :

    Code : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
     
    ollama pull phi3:3.8b
    Étape 6.4 : Vérifier les modèles téléchargés

    Étape 6.5 : Tester un modèle

    Code : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
     
    ollama run gemma3:1b "Bonjour, comment vas-tu ?"
    Pour quitter le mode interactif :
    7. STRUCTURE DU PROJET

    Étape 7.1 : Organisation finale des fichiers

    Code : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
     
    C:\RAG_Local
    │
    ├── .venv\                     Environnement virtuel Python
    │   ├── Scripts
    │   ├── Lib
    │   └── ...
    │
    ├── documents\                 VOS DOCUMENTS A INDEXER
    │   ├── guide_utilisateur.pdf
    │   ├── documentation.pdf
    │   └── notes.txt
    │
    ├── scripts\                   Scripts Python
    │   ├── create_vectorstore.py  Indexation documents
    │   ├── query_rag.py           Interrogation RAG
    │   └── config.py              Configuration
    │
    ├── chroma_db\                 Base vectorielle (créée auto)
    │   └── ...
    │
    ├── requirements.txt           Dépendances Python
    └── README.md                  Documentation projet
    Étape 7.2 : Ajouter vos documents

    Placez vos fichiers PDF ou TXT dans C:\RAG_Local\documentsExemple de commande :
    Code : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
     
    copy "C:\Users\VotreNom\Documents\mon_guide.pdf" "C:\RAG_Local\documents"
    Étape 7.3 : Créer le fichier de configuration

    Créez scripts\config.py :

    Code : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
     
    """Configuration du système RAG"""
    Chemins
    DOCUMENTS_DIR = "../documents"
    CHROMA_DB_DIR = "../chroma_db"
    Modèles Ollama
    LLM_MODEL = "gemma3:1b"
    EMBEDDING_MODEL = "all-minilm"
    Paramètres de découpage
    CHUNK_SIZE = 1000
    CHUNK_OVERLAP = 150
    Paramètres de récupération
    TOP_K = 3
    Paramètres LLM
    TEMPERATURE = 0.7
    NUM_CTX = 2048
    NUM_PREDICT = 256
    Celui qui trouve sans chercher est celui qui a longtemps cherché sans trouver.(Bachelard)
    La connaissance s'acquiert par l'expérience, tout le reste n'est que de l'information.(Einstein)

  13. #13
    Membre averti
    Homme Profil pro
    Conseil - Consultant en systèmes d'information
    Inscrit en
    Janvier 2016
    Messages
    39
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Bouches du Rhône (Provence Alpes Côte d'Azur)

    Informations professionnelles :
    Activité : Conseil - Consultant en systèmes d'information
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Janvier 2016
    Messages : 39
    Par défaut
    Bonjour,

    Merci pour toutes ces informations. Le processeur actuel a 2 cœurs physiques et 4 threads est ce qu'il est suffisant ?
    Sinon il faut que j'utilise autre chose.

    Cordialement,

  14. #14
    Expert confirmé
    Avatar de fred1599
    Homme Profil pro
    Lead Dev Python
    Inscrit en
    Juillet 2006
    Messages
    4 476
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Meurthe et Moselle (Lorraine)

    Informations professionnelles :
    Activité : Lead Dev Python
    Secteur : Arts - Culture

    Informations forums :
    Inscription : Juillet 2006
    Messages : 4 476
    Par défaut
    Vous pouvez tester, mais ça risque d'être lent... Rien de tel que faire le test pour vérifier.
    Celui qui trouve sans chercher est celui qui a longtemps cherché sans trouver.(Bachelard)
    La connaissance s'acquiert par l'expérience, tout le reste n'est que de l'information.(Einstein)

  15. #15
    Membre averti
    Homme Profil pro
    Conseil - Consultant en systèmes d'information
    Inscrit en
    Janvier 2016
    Messages
    39
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Bouches du Rhône (Provence Alpes Côte d'Azur)

    Informations professionnelles :
    Activité : Conseil - Consultant en systèmes d'information
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Janvier 2016
    Messages : 39
    Par défaut
    Bonjour,

    A ce stade ce n'est pas très grave si c'est lent.

    En attendant j'ai pas mal d'anomalies et d'erreurs. Les 2 premières se sont réglées
    1 malgré l'install de python en mode path et la désinstallation des autres versions j'ai dû réinstaller le path à la main dans les variables d'environnement
    2 la commande "python" n'est pas reconnue mais 'py" l'est

    mais pas celle-ci : à l'étape 5.1

    ---------------------------------------
    3 INFO: pip is looking at multiple versions of langchain-text-splitters to determine which version is compatible with other requirements. This could take a while.
    ERROR: Cannot install -r requirements.txt (line 2), -r requirements.txt (line 4), -r requirements.txt (line 5) and langchain-core==1.0.2 because these package versions have conflicting dependencies.

    The conflict is caused by:
    The user requested langchain-core==1.0.2
    langchain 1.0.3 depends on langchain-core<2.0.0 and >=1.0.0
    langchain-community 0.4.1 depends on langchain-core<2.0.0 and >=1.0.1
    langchain-text-splitters 0.3.0 depends on langchain-core<0.4.0 and >=0.3.0

    Additionally, some packages in these conflicts have no matching distributions available for your environment:
    langchain-core

    To fix this you could try to:
    1. loosen the range of package versions you've specified
    2. remove package versions to allow pip to attempt to solve the dependency conflict

    ERROR: ResolutionImpossible: for help visit https://pip.pypa.io/en/latest/topics...ency-conflicts

    --------------
    Remarque : j'ai également eu avec llama-index des problèmes similaires de dépendances

    Ensuite tout ce qui concerne le 6 marche jusqu'au 6.5 test du modèle qui tourne en rond (même avec Gemma qui est un petit modèle : 1 milliard de paramètres).

    Cordialement,

  16. #16
    Expert confirmé
    Avatar de fred1599
    Homme Profil pro
    Lead Dev Python
    Inscrit en
    Juillet 2006
    Messages
    4 476
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Meurthe et Moselle (Lorraine)

    Informations professionnelles :
    Activité : Lead Dev Python
    Secteur : Arts - Culture

    Informations forums :
    Inscription : Juillet 2006
    Messages : 4 476
    Par défaut
    Déjà faut désinstaller python 3.13 pour éviter les conflits, du coup il faut désinstaller aussi python 3.12 puis réinstaller python 3.12 avec l'option path.

    Supprimez votre dossier .venv actuel dans Rag_Single/ (il a été créé avec la mauvaise version de Python).

    Ensuite refaites les étapes définies plus haut

    Code : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
    3
    4
    5
    6
    7
    8
    # 1. Allez dans votre dossier
    cd C:\chemin\vers\Rag_Single
     
    # 2. Créez un nouvel environnement virtuel (il utilisera Python 3.11)
    python -m venv .venv
     
    # 3. Activez-le
    .\.venv\Scripts\Activate.ps1
    Celui qui trouve sans chercher est celui qui a longtemps cherché sans trouver.(Bachelard)
    La connaissance s'acquiert par l'expérience, tout le reste n'est que de l'information.(Einstein)

  17. #17
    Membre averti
    Homme Profil pro
    Conseil - Consultant en systèmes d'information
    Inscrit en
    Janvier 2016
    Messages
    39
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Bouches du Rhône (Provence Alpes Côte d'Azur)

    Informations professionnelles :
    Activité : Conseil - Consultant en systèmes d'information
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Janvier 2016
    Messages : 39
    Par défaut
    Citation Envoyé par fred1599 Voir le message
    Déjà faut désinstaller python 3.13 pour éviter les conflits, du coup il faut désinstaller aussi python 3.12 puis réinstaller python 3.12 avec l'option path.

    Supprimez votre dossier .venv actuel dans Rag_Single/ (il a été créé avec la mauvaise version de Python).

    ]
    C'est ce que j'ai fait et d'ailleurs idem pour Ollama, sauf erreur.

    Cordialement,

Discussions similaires

  1. [Wamp] Installer wamp sur serveur local
    Par Dakuan dans le forum EDI, CMS, Outils, Scripts et API
    Réponses: 4
    Dernier message: 17/06/2008, 12h43
  2. [osCommerce] Installation site bloqué en local
    Par tony21turbo dans le forum EDI, CMS, Outils, Scripts et API
    Réponses: 3
    Dernier message: 03/10/2007, 22h21
  3. Installation sur petit réseau local
    Par User dans le forum Delphi
    Réponses: 5
    Dernier message: 14/05/2007, 23h17
  4. [Joomla!] Joomla barbe comment installer un site en local ou à distance ?
    Par Lebret93 dans le forum EDI, CMS, Outils, Scripts et API
    Réponses: 20
    Dernier message: 06/03/2007, 14h58
  5. Réponses: 1
    Dernier message: 20/02/2006, 23h39

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo