Bonjour,


Je me permets de vous solliciter les experts du WEB et de l'information à travers ce billet car je veux comprendre comment fonctionne la mise en place d'un projet, une plateforme d'information et d'actualité dans le domaine informatique, stratégiquement et théoriquement parlant.

En effet au-delà de la technique, il y a des aspects stratégiques et peut etre légaux que je pense ignorer.
C'est pourquoi je souhaite avoir des avis d'experts et professionnel de l'information et de ce genre de projet.

Et donc voici quelques questions que j'aimerais bien poser :

  • Quels sont les facteurs en prendre en compte pour un site qui collecte/indexe (crawling) depuis le net et publie de l'information? Y-t-il des contraintes juridiques régissant cela? Si oui sont-elles différentes d'un pays/continent à un autre
  • Quel est ou pourrait être réellement le rôle du journaliste, typiquement dans un projet/site d'actualité informatique
  • Stratégiquement parlant comment cela s'organise et se gère du point de vue humain? Qui doit faire quoi et comment pour recueillir de l'information?
  • Je prendrai concrètement des exemple tels que SILICON et LE JDN. Avez-vous une idée de comment les acteurs derrière de tels site s'organisent, travaillent, juste pour le volet collecte et mise à disposition de l'information sur l'actualité en question



La question technique pour terminer mon message, c'est comment fonctionne les sites ou application qui font du crawling en général? De la mise en place au référencement, ...... Les bonnes pratiques, et différentes techniques/stratégies utilisées, documentations recommandables....
Mais les questions énumérées ci-dessus prévalent.

Je m’arrêterai là pour ces première questions en espérant que mes questions/interrogations sont à peu près claires.

Merci beaucoup pour votre attention.

Cordialement,
Nixmind.