Non parce qu'on a tous les outils pour le faire : les algorithmes parallélisables connus, les données d'entraînement sur le Web (je parle de datasets, mais le scraping reste possible, juste toujours avec les même histoires de droits à régler), les structures peer to peer (torrent, science collaborative, etc.). Je ne serais pas étonné de voir dans le futur des moyens pour mutualiser les ordinateurs persos pour produire des modèles. Comme les sciences participatives, ça enverrait un ensemble de données à calculer dont tu renverrais les résultats.
Ce serait à concevoir, mais une idée naïve serait par exemple de distribuer sur une machine du réseau collaboratif un unique layer du réseau de neurones, et ça t'enverrait les entrées pour que tu renvois les sorties, puis ça t'enverrait les gradients d'apprentissage pour que tu renvois les gradients tu niveau précédent, puis les entrées suivantes, etc. Au début tu recevrais les poids de départ, et à la fin de l'entraînement (ou à la demande) tu renverrais les poids actuels de ton layer. Selon les capacités de la machine, elle traiterait plus ou moins de layer, et le ferait sur CPU ou GPU.
Encore une fois, idée naïve, ça demande une vrai conception. Mais l'idée me semble intéressante à tenter. Et si on n'avait plus rien d'autre, je n'ai aucun doute que quelque chose du genre se mettrait en place, car quand il y a un besoin, il y a toujours quelqu'un pour essayer d'y répondre. Et si les solutions commerciales deviennent trop agressives, les solutions open sources sortiraient naturellement pour ceux qui n'ont pas envie de payer. Ça pourrait commencer par du simple moteur d'inférence distribué, pour au moins exécuter les modèles déjà dispos, et après ça pourrait y ajouter l'apprentissage pour pouvoir produire les modèles.








Répondre avec citation





Pensez-vous que cette déclaration est crédible ou pertinente ?





calvaire,

Partager