<?xml version="1.0" encoding="ISO-8859-1"?>

<rss version="2.0" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:content="http://purl.org/rss/1.0/modules/content/">
	<channel>
		<title><![CDATA[Forum du club des développeurs et IT Pro - Bibliothèques d'apprentissage profond]]></title>
		<link>https://www.developpez.net/forums/</link>
		<description><![CDATA[Forum d'entraide sur l'utilisation des bibliothèques et outils d'apprentissage profond, indépendamment du langage de programmation : Keras, TensorFlow, CNTK, Theano, PyTorch, etc. Merci de préciser dans le titre de votre discussion la bibliothèque concernée entre crochets.]]></description>
		<language>fr</language>
		<lastBuildDate>Sat, 18 Apr 2026 03:23:53 GMT</lastBuildDate>
		<generator>vBulletin</generator>
		<ttl>15</ttl>
		<image>
			<url>https://forum.developpez.be/images/misc/rss.png</url>
			<title><![CDATA[Forum du club des développeurs et IT Pro - Bibliothèques d'apprentissage profond]]></title>
			<link>https://www.developpez.net/forums/</link>
		</image>
		<item>
			<title>Question sur les cartes NVIDIA GeForce et CUDA dans contexte transfomer/PyTorch</title>
			<link>https://www.developpez.net/forums/showthread.php?t=2180569&amp;goto=newpost</link>
			<pubDate>Fri, 21 Nov 2025 15:18:38 GMT</pubDate>
			<description><![CDATA[Quelqu'un a-t-il une...]]></description>
			<content:encoded><![CDATA[<div>Quelqu'un a-t-il une expérience avec des cartes graphiques NVIDIA GeForce et avec CUDA ?<br />
J'essaye de les utiliser pour faire de l'inférence à partir de modèles OCR PyTorch/Transformer (via Python), sur un PC équipé d'une GeForce RTX 4090  .<br />
Cela donne des résultats intéressants, mais le GPU se crashe souvent, de façon imprévisible, et la seule manière de récupérer la machine est alors de la redémarrer. Difficile dans ce conditions d'aboutir à un script exploitable en milieu professionnel par des utilisateurs non techniciens, à moins de &quot;bricoler&quot; (segmenter les images par petits bouts pour alléger la charge mémoire, mais les modèles les plus performants ont besoin du contexte complet, et détectent bien la structure générale des documents). <br />
J'ai aussi essayé un mécanisme de timeout après lequel le processus GPU est killé, mais un coup cela marche, un coup non. Visiblement le contexte du GPU n'est pas stable et peut-être altéré par les exécutions précédentes (ou ce qui est plus troublant &quot;stabilisé&quot;, car j'ai un script qui crashe systématiquement quand il est eécuté en premier lieu après le démarrage de la machine, mais fonctionne mieux s'il est devancé par d'autres tâches) , même si elles ne donnent apparemment pas d'erreur.<br />
J'ai lu que la gamme de GPU NVIDIA vraiment professionnelles (H100, et V100) permettait de récupérer le contexte CUDA à chaud, mais elles sont coûteuses, de  plus les produits évoluent vite.</div>

]]></content:encoded>
			<category domain="https://www.developpez.net/forums/f2341/general-developpement/algorithme-mathematiques/intelligence-artificielle/bibliotheques-d-apprentissage-profond/"><![CDATA[Bibliothèques d'apprentissage profond]]></category>
			<dc:creator>CetTer</dc:creator>
			<guid isPermaLink="true">https://www.developpez.net/forums/d2180569/general-developpement/algorithme-mathematiques/intelligence-artificielle/bibliotheques-d-apprentissage-profond/question-cartes-nvidia-geforce-cuda-contexte-transfomer-pytorch/</guid>
		</item>
	</channel>
</rss>
