Sarc Posté 10 Février 2007 Posté 10 Février 2007 [HS]A propos de ce petit délire tu devrais faire gaffe aux risques de représailles, éventuellement judiciaires, auxquelles tu t'exposes en créant ce genres de chose :-/. [/HS] Je suis également hors-sujet, mais je plussoie à fond Yazerty dans ce qu'il dit, et je le dis en public parce que ça peut servir à d'autres personnes... Des élèves ont déjà été renvoyés de leurs établissements à cause de photos de profs dans leurs blogs, et il existe des proviseurs qui cherchent activement les jeunes qui iraient contre cette règle. Non franchement, tu prends des risques en faisant ce genre de site...
zantar Posté 10 Février 2007 Auteur Posté 10 Février 2007 Ah ça fait du bien de manger, ça rend la réf. plus digeste.... j'avais pas remarqué que la discussion se poursuivait en deuxieme page !! Au risque de me répeter, je ne dis pas que les optimisations à l'ancienne fassent du tort à un site, mais elles sont mieux considérées si elles s'accompagnent d'un travail de fond sur l'agencement et la présentation du contenu, autrement dit, il ne faut aps s'attendre à des miracles en faisant un simple bidouillage technique et en laissant tout le reste à vau l'eau .. j'aimerai ajouter un petit constat que d'autres ont du faire: il a été dit que la collaboration entre Googlebot et Google Pub ( média machin ..) était plus étroite, je confirme avec le phénomène suivant observé depuis janvier : sur des pages neuves au contenu tres technique et pointu, ne ressemblant en rien aux mots clefs usuels ou aux mots clefs gros payeurs, sur ces pages donc, le CPC est à TROIS CHIFFRES !!!
dams41 Posté 10 Février 2007 Posté 10 Février 2007 [HS] Pour le HS j'ai recréé un topic http://www.webmaster-hub.com/index.php?showtopic=32454 pour parler de la légalité et ne pas poluer le topic ...[/HS] Quand tu parles de CPC à trois chiffres, tu ne parles pas de 100 $ quand même ???
zantar Posté 10 Février 2007 Auteur Posté 10 Février 2007 On n'a pas le droit de parler de ces choses là , mon message est civique; il s'adresse aux personnes qui parfois font des sites en fonction des thematiques rémunératices: cest completement idiot, car ce n'est pas le produit qui fait la valeur de l'enchère, mais plutot la pertinence de son contexte d'implantation
Leonick Posté 10 Février 2007 Posté 10 Février 2007 c'est quoi 3 chiffres ? en centaines d'euros ou en euros ? Depuis quelques années, j'ai pris l'habitude de faire mes pages pour les internautes et si je rajoute un lien, je me dit, ça pourrait les intéresser, même en dehors du web. Et avec google ça marche très bien. Par contre, sur les autres grands petits moteurs genre yahoo, msn j'ai l'impression qu'il faut encore continuer à jouer au bourrin de base pour se positionner.
zantar Posté 10 Février 2007 Auteur Posté 10 Février 2007 Oui pour les autres moteurs jai jeté l'éponge surtout MSN, qand je vois des sites de c*** monter en premiere page sur une requête "innocente " ça me fout les boules, je ne comprends pas comment microsoft avec ses moyens financiers cosmiques se laisse piéger de cette manière..
dams41 Posté 10 Février 2007 Posté 10 Février 2007 (modifié) Oui pour les autres moteurs jai jeté l'éponge surtout MSN, qand je vois des sites de c*** monter en premiere page sur une requête "innocente " ça me fout les boules, je ne comprends pas comment microsoft avec ses moyens financiers cosmiques se laisse piéger de cette manière.. Et pourtant, d'après mediamétrie c'est le deuxième moteur le plus utilisé en France. Ca peut être bien de s'occuper de savoir comment il fonctionne. Sinon, pour le lien Adsense /GGBot, j'ai remarqué que les pages comportant des adsense n'aparaissaient pas toutes dans l'index, donc j'aurais tendance à dire qu'il ne sont pas si liés que ça. Quels critères le GGBot pourrait-il tiré des adsenses si ce n'est le thème du site ... Modifié 10 Février 2007 par dams41
zantar Posté 10 Février 2007 Auteur Posté 10 Février 2007 Je voulais dire que le classement d'une page et l'indexation de son contenu sont determinants sur le contenu et la valeur des adsens, mais la j'enfonce une porte grand'ouverte... J'ai oublié de rajouter yahoo ( on va finir par penser que jecris ici pour les backs links, je vous jure que non) , en lançant la version anglaise encore inachevée du site yahoo l'a classée en deux mois a la 3 emme position, Google lui un gentil bac a sable qui se décante peu à peu, un site jeune étant amené a croite et changer, nous avons fait une mise a jour du site , en conservant l'ancien contenu, Google a aimé et desseré son étau, mais yahoo a perdu les pedales, il nous a carémment effacé de son index!! un cyclothymique lui tout ou rien, audébut je rageais contre les filtres de Google, et a present je trouve quil est rationnel lui ..
Leonick Posté 10 Février 2007 Posté 10 Février 2007 Quels critères le GGBot pourrait-il tiré des adsenses si ce n'est le thème du site ...nombre de pages vues, concordance entre la page envoyée aux internautes lambda et aux moteurs il peut tirer beaucoup de choses sur la pertinence d'un site par rapport aux requêtes. Et même encore plus, car il peut ainsi connaitre les requêtes de provenance de ses concurrents (les referer de yahoo, msn, ...)Ca permet d'améliorer son algorithme
dams41 Posté 10 Février 2007 Posté 10 Février 2007 En effet, je n'y avait pas du tout pensé . Mais alors Google Analytics doit leur fournir aussi beaucoup d'informations. On peut donc se poser la question de savoir si il vaut mieux prendre Google Analytics ?
webmaster39 Posté 11 Février 2007 Posté 11 Février 2007 tout cela est très interessant mais la meilleur sollution pour etre bien référencer c'est de le mériter, un bon sites sans arnaques aux mots clé, avec du contenu logique. Bref un site utile pour certaines personnes. cordialement
ybet Posté 11 Février 2007 Posté 11 Février 2007 (modifié) Fallait bien s'attendre à ce que GG réagisse, il le fait de toute façon depuis des années, sauf que les ordinateurs sont plus pluissants, ce qui facilite ses calculs en temps réels. Quelles sont les méthodes préconisées de puis des années: 1 titre contenant la requête. Ca fait bien 2 ans que GG a supprimer les pages reprenant 4 fois les mots clés 2. description contenant la requête, ici aussi déclassemtn des pages reprenant les occurences pas du tout naturel 3. contenu de la page. C'est ici que ca se complique . - Dans un post, caribou expliquait des systèmes statistiques qui permettent de détecter une occurence de mots un peu trop poussée. - La méthode liste de mots clés dans le footer (sans liens), séparés par des virgules ne passe plus correctement depuis déjà quelques mois, pourtant elle passait pas mal depuis des années. Tant que le mot était sur la page, ..... ca passait. M'était positionné premier sur "informatique zzz" (où zzz est le nom des communes avoisinantes) pendant des années de cette méthode, toujours positionné mais la première place a chaque fois été reprise par le concurrent de sa commune (sauf une où par hasard je suis trusted et c'est pas ma ville, j'aimerais qu'on m'explique ). Je crois que gg a repéré les sites de chaque commune et les liens vers les pages des concurrents (me méfierait de google map qui permet de rentrer les coordonnées d'une entreprise aussi). - h1, h2, ..... commence également à descendre (je pense) si le contenu n'est pas franchement coupé par du texte. Mais finalement pas logique d'utiliser les balises H1, .... comme plan de la page et pas comme technique de référencement - pluriel - singulier: j'en ais beaucoup profité mais bon, a plus la technique de mélanger à outrance le mot au singulier et le mot au pluriel n'a plus l'air de fonctionner non plus, surtout que même dans les recherches, GG les remets comme même mot (en plus qu'il récupère des synonymes, ce qui facilite pas non plus le travail). 4. les textes des liens, si possibles externes. Ici aussi, on retrouve toute la panoplie des liens partenaires sur toutes les pages sans franchement s'occuper qui est le partenaire, du type un site de recettes de cuisine qui envoie un lien (réciproque) vers la page d'entrée d'un site qui parle d'archéologie, ca fait louche - surtout que je doute franchement de l'apport de visiteurs. Comme dit Leonick, GG commence aussi à détecter ces liens externes qui favorisent une page qui n'est pas sur son site, qu'il juge probablement comme page de référence, mais ne dépositionne pas la page qui envoie le lien (dirait même le contraire dans certains cas). Google doit facilement détecter les liens "référencements" et les liens "naturels". Une petite remarque au passage, les sites de ventes ont nettement reculés en 2006 par rapport aux sites parlant réellement du sujet. En informatique, fallait chaque fois aller à la troisième page pour trouver un renseignement technique, même si certains sont toujours bien positionnés, ils ont rarement toutes les premières places, preuve que l'algorythme change au niveau des liens, notamment internes. Ce sont les 4 principales, le reste c'est du saupoudrage de ces différentes techniques, un peu comme une recette de cuisine, ni trop ni trop peu. Faut pas être un spécialise pour détecter une page optimalisée sur un mot clé, il est partout. La technique la plus touchée depuis quelques mois semble être le contenu (quoique). Pour le NDD, pas persuadé que GG ait un jour pris ca en compte (même s'il reprend les mots en gras dans les résultats). Mais bon, rien que dans les forum, on met rarement un beau petit texte pour renvoyer vers une page mais bien directement son adresse. C'est probablement cette méthode qui favorise le NDD avec le mot clés dedans, y compris pour les pages internes. Pour l'ancienneté du NDD, je pense qu'elle est toujours prise en considération (même probablement trop), sauf que les vieux sites plus mis à jour commencent nettement à descendre. Puis bon GG a quelques outils intéressants pour faire le ménage: . analytic certainement (quique je le vois mal analysé les requêtes de ses concurrents) au niveau requêtes d'entrées, durée de la visite, navigation dans le site, .... . adsence : si un site réputé référencment comme celui-ci par exemple n'a aucun click sur sa thématique mais bien sur une autre différente, .... dois y avoir un problème entre le contenu et ce que les visiteurs viennent chercher. . votre propre compte google utilisé pour diverses inscriptions lié à un cookies. Me suis étonné en affichant mon site sur le PC d'un client, les pubs adsences affichées n'étaient pas du tout les mêmes. Si adsence est capable de positionner les pubs en fonction du visiteur, ca doit pas être beaucoup plus dur de modifier le positionnement des pages dans une recherche en fonction de l'intérêt de l'internaute. D'aillieurs, en faisant un tour sur la page du compte, on retrouve en version Beta Historique des recherches e comme contenu Obtenez des résultats de recherche répondant à vos attentes.La recherche personnalisée améliore la recherche Google grâce à un système de classement des résultats en fonction des recherches que vous avez effectuées précédemment. Dans un premier temps, vous ne verrez peut-être pas la différence, mais à mesure que votre historique des recherches s'enrichira, les résultats personnalisés seront de plus en plus pertinents. Vous pouvez consulter votre historique de recherches à tout moment en cliquant sur le lien « Historique des recherches » sur la page d'accueil de Google. Si vous souhaitez que certaines de vos recherches ne soient pas incluses dans l'historique, il vous suffit de cliquer sur le bouton « Mettre en veille » sur cette page. Le stockage de vos recherches dans l'historique et leur utilisation pour personnaliser vos résultats de recherche ne reprendront qu'une fois que vous aurez cliqué sur « Réactiver ». Rien que celà en dit long sur les prétentions futures du moteur. Attention quand même qu'il y a de gros disfonctionnement dans les DC depuis des mois, sur certaines requêtes, bien positionné 3 jours sur tous les DC, quasiment nulle part le lendemain pour revenir à l'état initial sans avoir rien changé aux pages. A force on s'habitue (disons on panique plus) mais ca ressemble quand même à des tests de Google. bon, on reprend tous les sites à zéro, on abandonne toute idée de bien se positionner par les méthodes réservées aux SEO, plus de titre et de description qui prennent du temps, plein de fautes d'orthographes dans les pages. Modifié 11 Février 2007 par ybet
Leonick Posté 11 Février 2007 Posté 11 Février 2007 Comme dit Leonick, GG commence aussi à détecter ces liens externes qui favorisent une page qui n'est pas sur son site, qu'il juge probablement comme page de référence, mais ne dépositionne pas la page qui envoie le lien (dirait même le contraire dans certains cas).Je pense même qu'il doit forcer dans quelques cas le référencement sur ces mots clés là. Du genre, "tu veux mettre un lien vers un site de sonneries de téléphones en pieds de page ?" hé bien tu vas te retrouver sur cette requête, même si tu ne le voulais pas !!Et quand on voit jusqu'où peuvent aller certains SEO avec les sites de clients pour promouvoir d'autres de leurs sites
zantar Posté 12 Février 2007 Auteur Posté 12 Février 2007 (modifié) Bonjour, je suis surpris, mais agréablement par les proportions qu'a prises mon modeste post initial. La mise au point de YBET est franchement passionante à decortiquer... au final je me dis, si ce genre de post est bien lu et bien ruminé, nous ne lirons plus de questions annexes et superflues sur les tirets dans l'url, sur les mots en gras.... bref tout le folklore qui a fait vivre la SEO pendant des années, et vive le contenu et l'honnêteté !! Modifié 12 Février 2007 par zantar
Sarc Posté 12 Février 2007 Posté 12 Février 2007 Bonjour, Ce n'est pas parce que des points sont développés sur ce sujet qu'ils sont une source de vérité infaillible ! Faut pas aller trop vite en besogne, tuer l'ours avant de l'avoir choppé, personne ne sait vraiment comment travaille Google sur nos sites, et ce qu'il en fait... C'est fort rapide de dire qu'un mot en gras ne marche plus du tout. Où sont les tests qui le prouveraient, du moins empiriquement ? Il est possible de se faire des idées en regardant comment est Google avec nos sites, mais ça ne fait pas office de Vérité Absolue... Même si vive le contenu et l'honnêteté, je ne dis pas vive la non optimisation de site... (Et puis, qui me dit que tu n'essayes pas de descendre la concurrence ? )
Yazerty Posté 12 Février 2007 Posté 12 Février 2007 Ouais d'abord ! Moua je dis que zantar c'est qu'un faux gentil webmaster qui essait de nous faire croire que Google a plein de serveurs qui tournent avec un algo de plus en plus amélioré pour détecté le "vrai web naturel" .
ybet Posté 13 Février 2007 Posté 13 Février 2007 Bonjour, Ce n'est pas parce que des points sont développés sur ce sujet qu'ils sont une source de vérité infaillible ! Faut pas aller trop vite en besogne, tuer l'ours avant de l'avoir choppé, personne ne sait vraiment comment travaille Google sur nos sites, et ce qu'il en fait... C'est fort rapide de dire qu'un mot en gras ne marche plus du tout. Où sont les tests qui le prouveraient, du moins empiriquement ? Ma dernière remarque était plutôt de l'humour Ce n'est pas l'optimalisation qui est négative, mais la sur-optimalisation que GG commence à détecter sans trop de problèmes. Faut juste être plus "délicat" dans la manière de référencer les pages.
Sujets conseillés
Veuillez vous connecter pour commenter
Vous pourrez laisser un commentaire après vous êtes connecté.
Connectez-vous maintenant