Aller au contenu

thick

Membre+
  • Compteur de contenus

    3 093
  • Inscrit(e) le

  • Dernière visite

Tout ce qui a été posté par thick

  1. Si je ne m'abuse, ils ne font que parfaire l'algo puisque c'est tout de même durant l'été 2008 que l'annonce a été faite à propos de la lecture du Javascript. A mon avis, c'est plutôt le HTML 5 qui représente un véritable bond en avant, notamment grâce à l'adoption des balises <audio> et <video>. Il serait temps de mettre le Javascript en bémol...
  2. Ouf! J'espérai bien ne pas être le premier à soumettre la meilleure solution. Merci mon pote Dudu Même si c'est pour commette l'hérésie d'installer Windows sur un Mac, il se trouve que je ne connaisse pas un seul Switcher qui regrette l'investissement. Pas la peine de repartir sur l'éternelle bataille entre Macophiles et PCistes (hein Dadou ), puisque je dis seulement que tous ceux que je connais qui sont passés depuis le PC sur le Mac peuvent témoigner que c'était totalement bénéfique.
  3. Encore une fois, ce n'est pas trop la teneur de la proposition qui me posait problème puisqu'elle est tout à fait standard, mais plutôt le fait de dévoiler un type de document qui me ferait bondir si c'était le mien qui se trouvait dévoilé publiquement. Le client possède aussi une part de responsabilité et cela passe par le respect des documents communiqués par le prestataire. C'est toujours bien de remettre une couche sur les concepts fondamentaux, même si j'en parle une page plus tôt. Blague à part, des liens pertinents et une Title intelligente vont propulser une page sans aucun doute.
  4. meta keywords je passerai. Elle demande trop de travail pour aucun effet puisque Google ne la reconnait pas et les autres moteurs qui la prennent en compte ne sont pas assez significatifs.
  5. Généralement, j'observe 3 phases principales dans la vie d'un site. La première phase implique la création d'un site personnel (c'est le cas ici). Ensuite vient le temps de la débauche graphique, mais toujours aucune plus-value pour le propriétaire du site. Finalement, la troisième phase comprend une véritable stratégie qui va porter ses fruits. Tout cela pour dire qu'il faut disposer d'un budget et de s'allouer d'un bon professionnel ou alors il faut s'accrocher et disposer de beaucoup de temps pour apprendre et payer les pots cassés. Dans tous les cas, il faudrait déjà que nous sachions dans quel état d'esprit tu te trouves. En d'autres termes, nous ne pouvons répondre à des questions aussi généralistes. Tout ce que je peux faire est te diriger vers mon guide du référencement que je tiens à disposition en version .pdf si tu m'envoies un MP
  6. Surtout pas ! Tant mieux que la majorité se cantonne d'inscriptions annuaires et optimisation meta. Cela laisse encore un peu de marge à ceux qui voient plus loin que la meta name="keywords"
  7. Pour répondre directement à la question : travail du référenceur de premier niveau dans un agence Web : optimisation des METAs et inscription dans les annuaires. Certains restent à ce niveau pendant toute leur carrière.
  8. Pourquoi mettre un nofollow sur les liens ? Il suffit de mettre un noindex sur les pages qui ne doivent pas être indexées. J'ai finalement regardé un peu le contenu du site pour répondre tout seul à ma question. Du coup, je suggère que l'absence d'indexation, ainsi que de difficulté de positionnement concernent les nombreuses pages dont le contenu est déjà présent ailleurs sur la Toile. Pour quelle raison le moteur de recherche devrait-il ingurgiter du contenu qui est préalablement proposé sur d'autres pages ?
  9. J'espère que le référenceur ne traîne pas sur le Hub car si c'était ma proposition que je découvrais publiquement dévoilée il est fort probable que j'apprécie moyennement. Ainsi, je ne vais pas porter de jugement sur cette proposition. D'ailleurs, si tu effaçais ce passage, je n'y verrais pas d'inconvénient - bien au contraire. Même si le contenu n'est pas classé Secret Défense, c'est la démarche qui me dérange. Concernant la création de contenu, il est tout à fait normal de s'inspirer de multiples sources. N'importe quel journaliste/écrivain/chercheur effectue des recherches afin de rédiger un texte. J'irais même jusqu'à valider la paraphrase pour ton besoin, mais attention de ne pas franchir la ligne rouge du plagiat. Tant que la phrase n'est pas identique, tu restes dans les clous. <Edit : Tes désirs sont des ordres Thick - J'ai juste laissé un grand thème pour que vous puissiez donner un avis tout de même - Arlette >
  10. Peu importe l'outil qui sert à construire un site car mon analyse se porte sur des éléments intégrés par le webmaster. Le code à proprement parler est tout à fait décent. Je ne fais qu'analyser le code source et relever les défauts liés à l'optimisation pour le référencement. Si besoin, je confirme ce que j'ai vu en regardant le code source de la catégorie citée (accessoires gothiques) qui a bénéficié d'une optimisation référencement si j'ai bien compris tes propos. Il suffit de faire "afficher source" dans ton navigateur et regarder de plus près les éléments cités. Si tu sens des limites personnelles en la matière, mais que tu penses pouvoir gérer l'optimisation toi-même, je conseille d'opter pour l'audit de référencement par un professionnel (pas le genre d'audit gratuit ou presque qu'on trouve en ligne). Cela permettra de tacler l'intégralité des paramètres qui permettront d'optimiser ton site. Encore une fois, si tu veux être "le meilleur" sur ta thématique, il faut tendre à devenir une référence en termes de contenu.
  11. Une prestation de référencement digne de ce nom va s'adapter aux spécificités du site. Du coup, peu importe le nombre de thématiques qu'il aborde car le référenceur proposera une stratégie en fonction.
  12. Les articles sont-ils originaux ? En d'autres termes, sont-ils rédigés pour le site ou proviennent-ils d'autres sources (AFP apparemment) ?
  13. meta keywords : inutile meta description : ce n'est pas un fourres-tout de keywords, mais un descriptif explicite et limpide du contenu de la page en question en 260 caractères espaces compris balise titre : pauvreté d'imagination dans la composition qui sera au détriment de la reconnaissances au sein des résultats de recherches - composer intelligemment en 80 caractéres contenu : 0 alt des images : ce ne sont pas des fourres-tout de keywords, mais un descriptif explicite et limpide de l'image title des href : ce ne sont pas des fourres-tout de keywords et sont inutiles pour le référencement commentaires <!--- : ne sont pas des fourres-tout de keywords en Hx <Hx> : doivent proposer une hiérarchie au lieu d'imposer H2 pour tenter de donner de la puissance au mots clés contenus J'ai bien l'impression que tu te persuades toi-même de ta propre potion magique pour le référencement. En tout cas, je ne cautionne pas ta méthode, mais je répète mon conseil donné plus haut qui se rapporte au contenu et à la structure de ton site. Je pense sincèrement qu'il faudrait écouter ceux qui viennent répondre à ta question plutôt que persister à t'écouter ou plutôt à croire dénicher quelque chose de substantiel tout en passant son temps à scruter les concurrents sur tes requêtes. En d'autres termes, je parie l'apéro que la structure de ta page se retrouve intégralement sur celle d'un autre dont tu jalouses la position. Après tout, peu importe ce que nous pourrions conseiller ! Quand au commentaire par rapport aux sitelinks, je le trouve tellement prétentieux que je n'ose pas avouer publiquement ma pensée... Pour rester poli : sois content de 4 sitelinks sans autre suggestion à apporter.
  14. Je n'ai pas regardé l'âge des différents domaines, mais c'est un facteur assez prépondérant. Si tu batailles contre un site qui a acquis cette position depuis des années, je conseille vivement de changer de plan de bataille. D'autant plus si ton site est plus ou moins récent. Vu la conception du sombre site en question, je parie qu'il s'agit d'un bon vieux site qui remonte à l'époque où on faisait à peu près n'importe quoi et ça grimpait. Pour ceux qui mangent des cigogne, vous savez de quoi je parle....
  15. La similitude entre les pages est certainement le premier facteur de rejet par les bots. Ainsi, les pages de résultats de recherche d'un moteur interne sont dépréciées depuis plus de cinq ans. Il est même recommandé de ne pas les indexer du tout !
  16. Et vi, faut toujours regarder si y a pas un .com qui se cache derrière un .fr (ou autre) Si la page traite du sujet en particulier, je ne vois pas en quoi nommer l'URL de manière adéquate est "ridicule". Par exemple, la sous-thématique "musique gothique" se trouve à l'intérieur d'un répertoire /musique-gothique/ avec toutes les pages en relation avec la sous-thématique à l'intérieur. Cela forme un "bloc" plus propre sur le serveur et reconnaissable en tant que sous-thématique particulière par les moteurs. Non s'il était le premier à présenter ces images au moteur. Normal puisqu'il l'a fait avant toi. Pourquoi Google reprendrait les mêmes choses une deuxième fois ? Faudrait peu-être arrêter de focaliser sur lui...
  17. Je suis un fervent supporter des noms de domaines sans mots clés au profit de la reconnaissance de marque. Avoir des mots clés dans le nom de domaine va favoriser sur une poignée de requêtes. Et alors ? Est-ce vraiment là-dessus qu'il faut baser une stratégie ? Au contraire, avoir un nom de domaine "qui pète" bien est autrement plus valorisant sur le long terme. Tout dépend de la finalité, mais dans le cas que tu cites, je vois nettement l'intérêt de passer outre les mots clés dans le nom de domaine. Pour les autres langues, j'opterai pour des sous-domaines spécifiques à chaque langue - surtout pas de répertoires. Prendre des noms de domaines supplémentaires est OK si tu trouves tout le panel disponible sur le même concept de termes.
  18. Yeah Arlette, I'm back! Mon avis ce n'est pas un tricheur car il s'emmêle lui-même les pinceaux avec le .fr et le .com Le .com est tout à fait présent dans l'index, tandis que le .fr est au plus mal. Tout bon spammeur qui se respecte ne commettrait pas une telle erreur (2 sites totalement identiques avec une extension différente). Après, il génère peut-être des pages à la volée, mais ce n'est pas non plus un énorme signe de tricherie. Tout cela reste bien basique et le codage en Delphi n'est pas la recette suprême pour tromper Google. Je peux être dans l'erreur, mais ce site ne triche pas au-delà du raisonnable et ne mérite pas un quelconque blacklistage. Cependant, je n'ai pas les outils d'analyse des techos Google et je n'ai pas décortiqué le site outre-mesure. De ce fait, je peux me tromper et il peut tout à fait être un spammeur de génie qui a réussi à tromper le moteur. M'enfin bon... Pour répondre à notre ami gothique, je suis à peu près certain qu'il y a plein de choses à dire sur ta thématique. Quelle est son histoire, quelles ont été les personnes influentes, quels sont les codes à respecter, quel est son futur, quels sont les bons plans, d'où proviennent les influences, comment sont manufacturés les vêtements, comment devient on gothique, gothique dans la mode/art/musique/littérature, décoration, etc... A vue de nez, y de quoi pondre une bonne centaine de pages solides. Tu peux aussi ajouter un annuaire qui va te faire un max de pages en plus.
  19. Bah ils utilisent juste Firebird comme base de donnees et Delphi pour le codage. En d'autres termes, pourquoi faire simple quand on peut faire complique... Concernant le "secret" pour passer devant sur de mots cles specifiques, cela reste le backlink avec anchor text approprie sur des pages pertinentes. Il faut donc voir apparaitre un lien vers votre site sur des pages d'autres sites traitant de la meme thematique. Par ailleurs, il est sans donc plus efficace de booster un "bloc" de page dedie a ce mot clef. Je veux dire qu'au lieu d'essayer de voir apparaitre la page d'accueil, il pourrait exister un repertoire incluant plusieurs pages qui sont entierement dediee a ce mot clef, traitant le sujet de la meilleure maniere possible et optimisee pour ce mot clef. M'enfin faut pas tomber non plus dans la tentation de la page sat a l'ancienne. Il y a moyen de faire cela tres proprement de maniere la plus informative qui soit pour l'internaute. Cette methode permet egalement de viser un double positionnement sur la page de resultat Google. PS : desole pour le manque d'accents pour cause de clavier EN
  20. En effet, site.com redirige vers www.site.com Oublie ma remarque. Concernant le plug-in SiteMap Wordpress, j'ai http://www.arnebrachhold.de/projects/wordp...maps-generator/ Est-ce que c'est lui que tu utilises ? Quel est le message d'erreur dans la console Webmaster ? Par ailleurs, qu'indique la frequence de crawl ? As-tu pris effectue tous les reglages mis a disposition ? Le PR0 est inquietant. C'est le signe d'une penalite pour les mauvais eleves du Web. Les raisons classiques sont : tentative d'augmentation artificielle de popularite, spyware/virus, vol de contenu, liens vers sites illegaux/mauvais reputation/bannis. Dans ton cas, cela ressemble plutot a un effet de bord sur une mise a jour des filtres anti-spam. En tout cas, il est clair que le site est mis au rebut de l'index. Le changement de script ou de template n'affecte absolument pas le ranking. La seule mise en garde est de bien rediriger les anciennes pages vers les nouvelles si l'URL change. C'est encore la fameuse 301 qui est en action (pleins de posts et publications Hub sur le sujet : redirections, htacess, 301) PS : encore desole pour le manque d'accents....
  21. Je n'ai pas vu de vices rédhibitoires qui puissent causer une telle pénalité. Autrefois, le fait de ne pas rediriger site.com vers www.site.com pouvait entraîner une pénalité pour cause de "duplicate content" car le moteur voit 2 sites différents avec et sans www. J'effectuerai déjà cette modification rapide en effectuant une redirection permanente de type 301 dans la .htacess. Ensuite, il y a quelques billets dupliqués ici et là, mais rien de majeur (voir avec copyscape.com), mais la commande site:oreille-malade.com ne montre rien de suspect. Cependant, je n'ai pas regardé du côté des liens s'il y avait trace de méthode suspecte pour améliorer la popularité. Pour commencer, je soumettrai le site à la console webmaster Google http://www.google.com/webmasters/tools/?hl=fr Au sein de cette console, tu pourras effectuer de nombreux réglages qui seront bénéfiques au site. Tu peux aussi tenter un post sur http://www.google.com/support/forum/p/Webmasters?hl=en Bon courage et tiens nous au courant.
  22. Je plussoie l'interet des petits liens car c'est bel et bien la base qui permet d'augmenter la popularite du site. A cela, il faut ajouter liens "de qualite" et bien soigner l'anchor text. En numero deux, je mets la Title de la page. Pour le reste, ce sont des centaines/milliers de parametres a bien developper, mais l'essentiel est ci-dessus.
  23. Voir comment le New York Times aurait mieux fait de demander conseil sur le Hub avant de s'auto-mutiler le site du Herald Tribune. http://gawker.com/5189745/times-nukes-itself-on-google
  24. Si je ne m'abuse, Google BlogSearch est ouvert depuis 2005. Par contre, le lien dans les resultats organiques est nouveau. Je trouve cela plutot pratique, meme si je suis aussi d'avis que cela va servir uniquement a une portion infime des utilisateurs.
  25. Il n'y a rien à faire car c'est bien le nombre total d'abonnés qui est affiché sans possibilité de parametrer. Si tu es victime d'un bug particulier, je te conseille le groupe de discussion Google (Feedburner appartient à Google Inc. pour y soumettre ton problème : http://groups.google.com/group/feedburner?pli=1
×
×
  • Créer...