Aller au contenu

Sujets conseillés

Posté

Il a quelques jours, alors que je discutais avec une entreprise de ma région de l'opportunité pour elle de se lancer sur Internet, je me suis vu confronté à une double question pour laquelle je voudrais peaufiner ma réponse.

Une fois le site construit et mis en ligne, pourquoi faut-il encore y travailler ?

S'il paraissait certes logique à mon interlocuteur de devoir payer une redevance annuelle pour un hébergement professionnel et la gestion de son nom de domaine, il semblait ne pas comprendre que pour qu'un site soit rentable, un travail périodique s'imposait.

Voici quelques arguments qui me viennent à l'esprit. Pourriez-vous compléter la liste en fonction de vos expériences ? Mieux encore y aurait-il quelque part un article, un site ou un document qui décrirait en détail le fait qu'il ne suffit pas de mettre en site en ligne pour lui garantir le succès ?

Les tâches périodiques du Webmaster :

- suivi des pages en vue de leur optimisation pour les moteurs

- suivi des campagnes PPC

- analyse des logs et rejet des robots abuseurs afin de préserver la bande passante

- amélioration et enrichissement du contenu

- contrôle des performances serveurs

- ... ?

Deuxième question :

Gestion du contenu et référencement

Ici, mon interlocuteur privilégiait un site Web où il pourrait lui-même gérer son contenu via une page sécurisée avec disons un contrôle de type rich text format.

Il s'attend à ce que dès que la page soit enregistrée, le nouveau contenu soit dans les premiers résultats de Google...

Bon, j'ai pu lui expliquer que cela ne fonctionnait pas vraiment ainsi, mais j'aimerais quand même vous demander quelle est votre expérience avec les sites de type content management. D'après mon expérience, avec ce type de site, c'est vrai qu'il est facile pour une personne qui n'y connaît rien en html de publier un site, mais je pense que la plupart de ces sites ne sont pas (facilement) indexés par les moteurs. Votre avis ?

Posté

Bonjour,

Nous allons séparer les réponses. Donc :

1/ Tu peux rajouter :

- veille concurrentielle (quitte à faire son travail, autant savoir comment le concurrent fait le sien (son travail et son site ; ) ) meme si ce n'est pas là l'essentiel de son travail.

- veille technologique : Mettre à jour son site, ca signifie aussi faire les modifications nécessaires et indispensables pour que celui ci soit toujours en adéquation avec la technologie actuelle. :wacko: Je m'explique : php passe à sa version 5. Si l'hébergeur fait de meme, il faut pouvoir garantir au client que son site marchera également avec cette version. Autre exemple : Une faille de sécurité a été découverte sur le logiciel utilisé... Il faut pouvoir réagir. Pour cela, se tenir informé, mais aussi, en permanence : réviser le programme, le site.

- recevoir le courrier. Un client peut vouloir un site, mais ne pas vouloir s'emmbeter avec les mails (parce qu'il ne maitrise pas, ou autre), voire meme il peut souhaiter ne pas vouloir recevoir de pubs. Le webmaster peut, lui, filtrer ce courrier. Et à propos de courrier.

- Un site est évolutif, mais les personnes qui le completent (les auteurs des articles, par exemple) le sont aussi. Or il faut quelqu'un qui geres les permissions, les droits, etc. Et ca, le client peut ne pas savoir comment faire.(c'est pas si simple)

- Prévenir et secourir les attaques pirates. Meme si on n'en parle pas beaucoup, il arrive, pour un site assez important, ou traitant d'un sujet sensible, ou dans un secteur concurrentiel 'rude', qu'il y ait une à plusieurs attaques de 'petits malins'. Là aussi, le webmaster doit etre là pour arreter le site pendant une période, le remettre en place lorsque c'est fini, voire réparer les dégats occasionnés. La question n'est pas de rentrer dans la psychose, mais nombre de sites ont été défigurés récemment par une 'attaque' en regle de la part de personnes qui n'ont apparemment 'rien d'autre à faire', c'est une réalité. La 'petite' délinquance existe aussi sur internet.

- Les sauvegardes. Elles sont périodiques. Il y a plusieurs sortes de sauvegarde, et le client n'est pas forcément un féru de sql, ou autres backups à répétition. D'autant qu'une sauvegarde méritant bien son nom, il ne suffit pas de savoir la faire, il faut pouvoir s'en servir le cas échéant. Autrement dit, remettre le site en place.

2/ Pour ce qui est de gérer son contenu : Il existe des programmes tout faits, en freeware pour certains. Pas compliqués à mettre en place, ils peuvent tout aussi bien servir à créer une interface de contenu. Je pense par exemple à SPIP, qui sert notamment aux publlications du hub.

Pour ce qui est du référencement :

C'est faux. Jettes un oeil aux publications du hub, elles sont aussi bien référencées que le forum (toutes proportions gardées en nombre de pages). Si les liens sont corrects et le code de la page est 'lisible' par les moteurs, il n'y a pas de raisons que ces moteurs ne l'indexent pas. Et s'ils l'indexent, alors ils le font de la meme manière qu'une page ordinaire.

Voilà, en espérant t'avoir aidé, il doit y en avoir d'autres, mais avec ca, t'as du travail jusqu'à la retraite :D

A+, Anonymus.

Posté (modifié)

Attention anonymus à ne pas confondre indexation et référencement !

Indexation: Le fait qu'un moteur detecte la pa page et l'ajoute à sa base.

Référencement: Travail d'optimisation afin d'être correctement visible sur les thématiques m'apportant un flux de visiteur "interessant".

Le référencement est donc, une tache du Webmaster.... Car sans visiteurs de "qualité" PAS de retour sur investissement !

Modifié par Dams
Posté

Merci d'avoir complété la liste, anonymous.

Pour ce qui est du référencement :

C'est faux. Jettes un oeil aux publications du hub, elles sont aussi bien référencées que le forum (toutes proportions gardées en nombre de pages). Si les liens sont corrects et le code de la page est 'lisible' par les moteurs, il n'y a pas de raisons que ces moteurs ne l'indexent pas. Et s'ils l'indexent, alors ils le font de la meme manière qu'une page ordinaire.

Ici je ne pensais pas exactement à un site du type Hub et oui, je suis d'accord ce système de gestion de contenu est facilement accessible aux crawlers.

Je pensais plutôt à des sites dont le contenu vient d'une BD que seul le propriétaire du site peut modifier. Pour les offres que je connais, le nom de domaine que le client choisit pointe vers ou frame le site du vendeur de la solution de contenu du type www.monbeausite.com = frame dont la source est www.outildeditiondecontenu.com?client=123&page=456&langue=fr& etc...

Ce genre de site semble attirer les entreprises qui ne veulent pas trop dépenser, car elles peuvent changer le contenu de leur site comme bon leur semble, mais je pense que leur contenu est invisible aux crawlers. Dans mon cas, si je me connecte en direct sur l'url où est stocké le contenu, j'ai un message Access Denied, donc je ne vois pas comment un bot pourrait venir indexer la page ?

Je considère donc ce genre de site comme le meilleur moyen de s'empêcher de figurer dans les résultats des moteurs ? Est-ce que je me trompe ? A votre avis ?

Veuillez vous connecter pour commenter

Vous pourrez laisser un commentaire après vous êtes connecté.



Connectez-vous maintenant
×
×
  • Créer...