Aller au contenu

Sujets conseillés

Posté (modifié)

Re-bonjour,

Est-ce que l'échange de contenus favorise le référencement ?

Je vous explique : prenons 2 sites par exemple. Est-ce que s'ils 'échangent des articles à diffuser de temps en temps, cela peut améliorer leur référencement ?

Du côté de la fréquence des mises à jours, ils peuvent être gagnants là dessus

Par contre, si leur contenu s'éparpille trop sur la toile, est ce qu'ils sont vraiment gagnants ?

qu'est ce que vous en pensez ?

Modifié par flore
Posté

Un contenu présent sur deux sites ne peut que nuire au référencement.

Dansle principe, Google considère ces contenus comme un seul, placé à deux endroits différents. Il y a ce qu'on appelle "duplicate content". Il n'affiche alors qu'une page sur les deux (ou trois, ou plus) des pages l'affichant.

Ce qui risque d'arriver, c'est que le site le plus important des deux (à supposer qu'il y ait une différence d'importance entre les deux sites) soit seul à remonter dans les résultats de recherche sur ce contenu, pénalisant de fait l'autre site.

Posté

aïe! j"avais raison d'avoir un doute sur ces histoires d'échanges de contenus

merci pour ta réponse et ta rapidité, captain_torche

Posté

D'un autre côté, s'il y a un lien vers la page originale, ça fait du bl, et ça devrait sembler être une "citation normale".

Reste à voir dans quelle mesure les pages des sites sont similaires.

Posté
Reste à voir dans quelle mesure les pages des sites sont similaires.

Exact. Est-ce que le contenu récupéré est imbriqué dans une vaste page présentant aussi des contenus différents

du site d'origine ?

Posté

Salut Flore,

Avoir un site Up-to-date a un impact sur le ranking de ton site.

L'implementation par exemple d'un fil RSS dans ta page serait un +. Par contre l'echange de contenu ne me semble pas un bonne idee. Ce que tu peux faire pour aider serait plus quelquechose du type SEO PR.

Tu ecrit des news sur ton site de facon reguliere, tu les publies sur ton site et ensuite tu les fait paraitre sur le web dans un nombre d'autre sites. Le principe est explique simplement sur l'excellent site d'Elliance

Posté
Exact. Est-ce que le contenu récupéré est imbriqué dans une vaste page présentant aussi des contenus différents

du site d'origine ?

Google détecte même des morceaux de phrases http://www.ybet.be/news-fiche.php?numero=5, point 2 pour quelques exemples ...

Ca donne une idée du problème

Posté
merci pour cet article, bien instructif pour moi :thumbsup:

Désolé de ne pas avoir mis mes tests ici (peut pas les mettre partout :blush: ). On a été plusieurs à faire des tests ... et pour une fois dans le référencement les partager et même les suivre chacun de notre coté. En plus, ceux qui ont participé sont des gros comme des plus petits (on va dire 10.000 VU/jours quand même)

Sur tous les tests et suivis depuis presque un an, les sanctions infligés aux sites sont:

1. Duplicate, le plus important mais pas le plus ancien

2. liens: je sais les ventes mais c'est pas le plus important - généralement pas de perte de visiteurs - mais siurtout trop de liens sur la page (voire également le point 3).

3. faible contenu. GG découpe les pages entre navigation et contenu. En cas de trop faible contenu, la partie navigation généralement constituée de liens passe en premier et duplicate pour toutes les petites pages à faible contenu

4. liens copain. Un petit texte sur une page PR4 avec un lien dans la partie contenu (acheter ou non) et la page est déclassée. Le lien, en follow ou non change rien (avis aux spécialistes du no-follow). GG ne suit pas les liens en no-follow au niveau PR et textes du lien (le robot oui), il ne l'intègre juste pas dans son calcul pour la pertinence de la page. Par contre trop de lien (avec souvent un faible contenu en plus), GG n'intègre pas les follow or not (et oui). J'en ai un vers ce site qui est passé de PR4 à grisé ... depuis presque un an.

5. fautes d'orthographe SEO (je sais on a tous essayé :P tant que ca répportait aussi des visiteurs) + Fautes sommaires de conjugaison réopétitives. Là GG lache du lests depuis presque deux mois, mais la technique est plus difficile. Là c'est plutôt contre les trucs automatiques (lisez black)

J'aurais du mal de refaire un article complet ici sur les pages grisées mais ce sont une large partie des sanctions infligées aux sites. En plus des pages en duplicate gardent un PR si elles recoivent des liens externes ne VENANT pas du même webmaster ou même groupes de Webmasters - on a tous quelques copains pour faire un petit lien interne vers une page interne en plein texte :wub: (on a aussi testé) . Par contre, pas corrigée la page reste dans les bas fonds.

C'est une ligne générale. Un pourcent assez élevé qui répondent à un de ces critère n'est pas pénalisé. Pas le prendre comme un dogme mais comme une base de travail. On peut faire un paquet de tests mais jamais, on ne connettra réellement l'algorythme de GG

Veuillez vous connecter pour commenter

Vous pourrez laisser un commentaire après vous êtes connecté.



Connectez-vous maintenant
×
×
  • Créer...