Aller au contenu

Cariboo

Membre+
  • Compteur de contenus

    3 376
  • Inscrit(e) le

  • Dernière visite

Tout ce qui a été posté par Cariboo

  1. Les pages ignorées sont les pages éliminées des pages de résultats "normales" en raison de leur similarité. En fait les deux chiffres sont intéressants : - tu as plus de 1000 pages indexées par Google - mais seulement 55 sortent de manière visible dans les résultats vus par les internautes
  2. Je crois me souvenir qu'il y'avait un "fix" automatique dispo pour gérer cela aussi.
  3. Cela me rappelle quelque chose... Je parie que tu es sous SP2... Le paramétrage par défaut du firewall pour le port ftp ne convient pas pour leech... Il faut autoriser l'application leech à accéder au réseau dans les paramètres avancés du firewall.
  4. J'ai subi la migration sur deux de mes serveurs en mysql 4.1, et tout s'est bien passé. Effectivement, il faut "gérer" le problème des authentifications, sinon on se retrouve à ne plus pouvoir accéder à ses propres bases en admin ! Avec le truc donné par Dan, pas de problème... Les autres différences sont minimes et en règle générale ne posent pas de problèmes particuliers (sauf avec les premières versions de phpmyadmin prenant en charge cette version, mais tout a été corrigé à présent).
  5. Je n'ai pas trouvé ce qu'il me fallait dans le topsite...
  6. Non, ce n'est pas celui là...
  7. J'avais trouvé sur le net il y'a quelque temps un outil sympa : On lui donnait deux couleurs extrèmes, le nombre de "tons" à générer (trois, quatre, ...six), et il donnait automatiquement les tons intermédiaires. Si quelqu'un connait cet outil, ou un équivalement, ce serait sympa de me donner l'url...
  8. Je vais aller dans le sens de Dan, le ratio intérêt / (coûts x complications) de ce genre de service est très défavorable... A l'époque des services mails gratuits à 2 Go, je serais vous, je consacrerais mon temps et mon énergie à imaginer un service plus original... Mais je ne suis pas vous
  9. Ton site est tout bonnement mal classé par Google, pour deux raisons : - apparemment, tu cherches à te référencer sur des mots clés très concurrentiels : la barre devient plus haute avec chaque jour qui passe - ensuite, ton site n'est pas suffisamment optimisé pour le référencement : recours aux iframes dans plusieurs rubriques, structure de liens interne inadaptée, hiérarchie des textes mal mise en valeur dans H1, Title etc... Par ailleurs, 89 backlinks pour arriver en tête sur des requêtes ou trainent des sites à PR7 voire PR8, c'est très, très insuffisant.
  10. Tu as raison d'avoir un doute. A partir du moment ou tu as écrasé la config OVH avec ta distribution debian, tu peux : 1. jeter la doc d'OVH 2. et laisser tomber le manager aussi... 3. plus grave, dire adieu au support OVH J'ajouterai que si tu n'es pas super à l'aise avec un serveur web sous Linux, je trouve qu'en installant ta propre config à la place d'une config éprouvée sur des milliers de machines tu te compliques la vie inutilement. Mais tu as le droit Pour les DNS, il faut paramétrer le fichier hosts.conf (/etc/hosts.conf ?), et créer un fichier hosts. Mais il vaut mieux que tu installes un serveur bind, c'est plus simple pour changer la config ultérieurement. Sans cela, tu ne peux effectivement rien paramétrer du tout.
  11. Les robots perçoivent l'erreur comme toi... Tant que ce type de problème ne dure que deux ou trois jours ce n'est pas très pénalisant. Certains robots vont indexer la page d'erreur, mais cela ne détruit pas le travail de référencement. Au delà, le site est considéré comme définitivement out ! et là cela fait mal au niveau référencement... Attention toutefois : le délai que je donne est vrai pour la plupart des sites, mais pour des sites à fort PR très fréquenté par les robots, les ennuis commencent au bout de quelques heures seulement... J'en ai fait l'expérience l'année dernière.
  12. Peut-être verra t'on bientôt apparaître en France le programme de liens sponsorisés de Findwhat... Pardon de MIVA...
  13. La phase 4 de Google Bourbon est en cours ??? En tout cas cela aura pris plus de temps qu'annoncé par Googleguy... C'est vrai que cela bouge dans tous les sens. Pour l'instant, j'ai l'impression que l'on revient en arrière...
  14. Il s'agit du résultat obtenu en cliquant sur le lien "pages similaires". Je ne suis pas sûr de comprendre ce que tu veux savoir exactement, mais voilà ce que dit Google à ce propos : Comment ça marche ? Heuuumm ... Je crois que personne ne s'est vraiment intéressé au problème... En tout cas, Google pense qu'il y'a une "relation" quelconque entre ton site et celui là.
  15. Il me semble bien avoir vu il y'a quelques mois des annonces très officielles de google pour ce type de postes :
  16. J'ai déjà une de mes requêtes ou le "tweak" de l'algo (le 0,5) a fait des morts... Mais alors une hécatombe... Le dernier gros changement va sûrement être encore plus douloureux pour certains...
  17. Bourbon, ce n'est pas fini. Extrait du post de Googleguy hier sur WMW : Bref un changement mineur dans l'algo a venir aujourd'hui ou demain, et un majeur la semaine prochaine... Gare aux surprises
  18. Dans l'absolu, cela pose effectivement problème. Mais tu as le droit de parler d'une marque, tant que tu ne la dénigres pas (contenu diffamatoire : "ce journal c'est de la m... ses journalistes n'écrivent que des mensonges", tant que ton site ne lui cause pas de préjudice en terme d'image (site adulte pointant sur "okapi), tant que tu ne fais pas acte de parasitisme. Disons que dans ton cas, le problème ce serait uniquement le parasitisme. Il vaudrait mieux une autorisation expresse de tes sources avant de mettre en ligne des pages dont le seul contenu provient de leur site.
  19. Oui. Tu es donc un webmaster. Le terme est tellement galvaudé est recouvre des situations tellement différentes que n'importe qui "s'occupe" d'un site peut se déclarer webmaster.
  20. Quand je disais qu'il se disait pas mal de bêtises sur le sujet, cela vise notamment certains éléments de cet article... Il semble bien documenté mais il dérape à plusieurs reprises en tirant des conclusions fausses à partir d'infos exactes. Il s'attarde et spécule longtemps sur ce que pourrait être le Trustrank défini dans le brevet (alors que ce n'est qu'un brevet logiciel à l'américaine, dont la transformation en véritable produit est hypothétique) et survole rapidement l'article scientifique pour dire simplement qu'il ne parle pas de la même chose que le brevet. Or il ne faut pas jeter le bébé avec l'eau du bain, l'article sur le Trustrank décrit une méthode très opérationnelle d'évaluation du caractère "spammy" des pages, et qui pourrait être déjà en cours d'utilisation. Or l'article de Jean Veronis discrédite tout le concept du point de vue de ce qu'il a cru comprendre du brevet logiciel. Bref, c'est une diatribe bien troussée contre les bêtises colportées sur le net, mais qui contribue au phénomène qu'elle dénonce.
  21. Personne de Google n'a jamais tenu ces propos là Va falloir que je me fende d'un article sur le Trustrank parce que c'est fou le nombre de sonneries avec un s comme dans crocodile que l'on raconte à son sujet. Le Trustrank ne remplace pas le PR, il le complète ! C'est un rank de plus, comme les rank thématiques, stocké dans la base index, et qui sert à noter les sites.
  22. Il faut d'abord que ton sous domaine soit correctement déclaré dans la conf d'apache. Ensuite, au niveau des dns, il faut simplement que ta config redirige correctement les requêtes de type xxx.domaine.com vers la bonne IP. Par défaut en général ça marche. Apache fera le reste. Déclarer un sous-domaine dans Bind n'est utile que si toto.domaine.com doit pointer vers une IP différente que titi.domaine.com.
  23. La compatibilité Mac PC sur Quark XPress est quasi parfaite... Sauf sur les versions anciennes. Mais pour les fichiers graphiques, l'enfer entre Mac et PC, se sont les polices ! Les polices, même si elles portent le même nom, ne chassent pas forcément de la même façon. En général, un Xpress Mac peut-être ouvert sur un PC, mais il y'a souvent du boulot derrière.
  24. Ce genre de pannes arrive régulièrement Cela a un mérite : cela permet de se désintoxiquer de temps en temps pour ceux qui ont besoin d'un fix de PR toutes les 20 mn).
  25. Non, dans les deux cas, le lien de la page A vers la page B transfère la même quantité de PR. Mais avec un lien réciproque, une partie du PR de la page B est également renvoyé vers la page A, ce qui fait qu'à l'itération suivante, la perte de PR est minimale. En cas de lien triangulaire, la perte de PR est maximale, et est minimisée que si la boucle se ferme (A->B->C->A), et que si le PR des deux sites partenaires n'est pas trop bas. Oui A<->B et A->B->C->A peuvent être équivalent du point de vue de l'algorithme. Mais je ne suis pas sûr que cela vaille le coup de se compliquer la vie avec la link farm "B", quand on peut faire un lien moins problématique directement avec la page C. Oui, je suis d'accord. Et quand ces répertoires de site ont des PR faibles sur les pages de liens, cela ne sert pas à grand chose de s'inscrire... C'est plus rentable de créer des partenariats avec des sites qui peuvent te créer non seulement des backlinks mais aussi du trafic avec des vrais gens qui cliquent sur de vrais liens.
×
×
  • Créer...