slender Posté 7 Octobre 2008 Posté 7 Octobre 2008 ID BOT - A tester sur 25 pages de façon gratuite - payant au-delà (350 euros pour 2000 pages). L'application détecte les balises TITLE, DESCRIPTION incorrectes, les codes 404, les duplicates contents, densité de mots clefs, images manquantes, gestion du sitemap, gestion des redirections, enfin bon, à peu près tout ce qui concerne l'état de bonne santé d'un site.
KnockedMaster Posté 8 Octobre 2008 Posté 8 Octobre 2008 Bonsoir, Désolé mais il n'y rien d'innovant là dedans, et ce n'est pas donné en plus tandis qu'en combinant 2 ou trois outils gratuits, on arrive facilement au mêmes résultat. Bref, je dis non Bonne nuit Knockedmaster
Dudu Posté 8 Octobre 2008 Posté 8 Octobre 2008 Salut Pareil, je suis un peu surpris. D'une, le côté référencement est très léger puisque je lis sur le site idbot.fr: La version d'ID Bot que nous proposons aujourd'hui est un outil complet destiné aux webmasters et webmarketeurs souhaitant développer des sites de qualité, sans erreur et dans le respect des règles W3C. Je vais aller expliquer à thick et à Jeff que le référencement passe avant tout par le respect des règles w3c, ça va les faire marrer un moment... De deux, je ne me vois pas débourser 350 euros toutes les 2000 pages pour obtenir un outil qui existe ailleurs gratuitement (certes de manière séparée comme le fait remarquer KnockedMaster). Exemple: La gestion des 404 ? http://validator.w3.org/checklink La gestion des autres erreurs ? mon fichier log d'erreurs que me fournit mon hébergeur en temps réel. Les redirections ? http://www.webmaster-hub.com/outils/http-viewer.php La recherche d'objet ? Euh... la fonction recherche de mon logiciel FTP ?? La densité de mots-clés ? Je m'en contrefiche, mais il existe un milliard de sites qui te proposent ça: c'est quelques lignes de PHP. Quant aux balises title et meta description, et aux attributs alt: je me sens assez grand pour pouvoir gérer ça tout seul. Verdict: je n'adhère pas, désolé. Mais merci pour l'info quand même
Jayrom Posté 8 Octobre 2008 Posté 8 Octobre 2008 Idem je vois pas pourquoi payer pour ce logiciel alors qu'avec le plugin webdevelopper et un peu d'observation ou même avec xenu, il est possible de faire ça gratuitement...
yep Posté 8 Octobre 2008 Posté 8 Octobre 2008 (modifié) 1) C'est qu'une question de temps : récolter de l'information en demande, donc demande de l'argent. 2) et de volume du site : tu le ferais à la main pour un site de plus de 10 000 pages ? Modifié 8 Octobre 2008 par yep
Kilroy Posté 9 Octobre 2008 Posté 9 Octobre 2008 On peut détecter pas mal de choses en utilisant des outils de crawl de site destinés à générer des sitemap Google. Certains fournissent des infos intéressantes : URL de la page Title (donc doublons de title) Niveau de profondeur Nombre de liens entrants et sortants header renvoyé (200,404,301 etc.) Type de document (pour le non HTML) Evidemment, ces outils pourraient être améliorés, notamment pour détecter le texte des liens internes, mais en récupérant les données ci dessus on peut déjà identifier pas mal de problèmes... sans même regarder le site lui même. Pour ma part j'utilise XML Sitemap. C'est en Java, pas super stable, mais le filtre d'exclusion de documents est bien plus pratique que celui de Xenu. Il n'examine pas les images, les liens sortants... et fait moins de timeouts que Xenu. Pourquoi pas un outil payant, mais il devra m'en donner un peu plus pour mon argent !
Magicoyo Posté 9 Octobre 2008 Posté 9 Octobre 2008 La détection d'erreurs sur les gros sites est un enjeu important. L'outil ID bot me semble y répondre. Reste à chacun d'évaluer le ration utilité/coût pour son business.
yuston Posté 9 Octobre 2008 Posté 9 Octobre 2008 Google Webmaster Tools fournit également des résultats, certes moins pratique vu qu'il est impossible de mettre à jour les données quand on le souhaite, mais constitue une bonne base je trouve bien que ce soit moins complet que l'outil précité.
Dudu Posté 10 Octobre 2008 Posté 10 Octobre 2008 Salut La détection d'erreurs sur les gros sites est un enjeu important. L'outil ID bot me semble y répondre.Reste à chacun d'évaluer le ration utilité/coût pour son business. Qu'on ne se méprenne pas sur mon propos. Que la détection d'erreurs sur les gros sites soit un enjeu important : bien sûr. Qu'IDBot y réponde: c'est exact. Et que chacun évalue le ratio utilité/coût pour son business: ok, encore une fois. Là où je tique, c'est qu'il existe la même chose en gratuit, et qui fonctionne parfaitement. À savoir, ton log d'erreurs qui gentiment te liste jour par jour le type d'erreurs, sur quelle page c'est arrivé, l'IP et l'UA du visiteur, les date et heure. Et en plus c'est directement géré par le serveur, ce qui évite d'avoir un outil externe qui s'amuse à re-crawler toutes les pages pour un résultat identique. En plus de ça, comme si ça ne suffisait pas, le service checklink du validateur w3c vérifie les 404, et ne rechigne pas devant de gros sites aux nombreuses pages. Donc c'est un peu réinventer la roue, en la faisant payer (cher). Je n'ai jamais rechigné à payer des logiciels innovants, j'écris d'ailleurs ce message depuis un navigateur payant reservé à un marché de niche, et dont les mises-à-jour majeures (sauf sécurité) sont payantes; tout ça parce qu'il a des fonctions innovantes. Dans le cas d'IDBot, je ne vois pas vraiment la nécessité de s'encombrer ni d'un coût supplémentaire, ni d'un visiteur supplémentaire qui ne fait que crawler le site en boucle page par page pour y détecter ce que mon serveur détecte déjà gratuitement, plus efficacement, et avec moins de bande passante. Mais si tu vois cette nécessité et que je suis dans l'erreur, éclaire-moi car vraiment je n'arrive pas à voir un besoin absolu dans l'achat de ce logiciel.
KnockedMaster Posté 10 Octobre 2008 Posté 10 Octobre 2008 Pour le coup, je viens appuyer Dudu et expliciter un peu plus mon premier commentaire. C'est clair que les erreurs et leur gestion, sur un site professionnel, c'est capital. Impensable de ne pas gérer ça et/ou de ne pas procéder à la traditionnelle batterie de tests avant une mise en production. Personne n'a dit le contraire. Non, c'est vraiment au niveau du rapport qualité/prix qu'il y a un problème. Les fonctionnalités proposées peuvent être réunies très facilement par des outils gratuits. Dudu parlait du fichier de log, ben je suis d'accord, j'ai même bidouillé en php un petit truc de 100 lignes pour faciliter la lecture des logs bruts. Prix de l'opération 0. Efficacité maximale. Tu veux connaître tes liens cassés ? Xenu Link Sleuth. Prix 0 Les mots-clefs, la sémantique, la densité, et autres bla-bla ? Au hasard, le dernier en date dans ma mémoire :http://alyze.info/. Prix 0 Test d'accessibilité ? Ocawa, voire Opquast Prix : 0 Tests de vitesse de chargement ? Extension Yslow, AOL PageTest, Yahoo Site explorer. Très bons outils. Prix 0 ... J'en passe et des meilleures ... Voilà, sachant qu'on ne teste pas ces différents éléments en même temps, je ne vois aucun problème à utiliser différents outils. Bien sûr, on peut toujours se dire que si c'est payant, c'est que, forcément, c'est mieux qu'un outil gratuit ! Sauf qu'ici ça n'est pas le cas. C'est un peu comme si tu avais une super boîte à outils, dont tu es très content, amortie et tout et tout, et qu'un représentant venait sonner chez toi pour te vendre une autre boîte à outils, avec dedans des outils qui font tout pareil, sauf que la nouvelle boîte coûte très très cher. Perso, je ne lui laisse pas le temps de finir sa phrase au représentant. C'est que j'essayais de dire et que dudu a bien résumé. ++ Knockedmaster
yep Posté 10 Octobre 2008 Posté 10 Octobre 2008 Il a l'avantage de centraliser pléthore d'outils qui plus est via une interface somme toute agréable.
KnockedMaster Posté 10 Octobre 2008 Posté 10 Octobre 2008 Il a l'avantage de centraliser pléthore d'outils qui plus est via une interface somme toute agréable. C'est vrai, mais 350 les 2000 pages, ça fait cheros "l'interface somme toute agréable". M'enfin voilà, pour moi c'est non merci, chacun pèsera le pour et le contre en fonction de ses aspirations et attentes ... ++ Knockedmaster
BonBackLink Posté 10 Octobre 2008 Posté 10 Octobre 2008 Idem pour moi xenus link + webmaster tools le permettent gratuitement.
Leonick Posté 10 Octobre 2008 Posté 10 Octobre 2008 erreurs 404 (y compris images) et redirections : Xenu Densité de mots clés : comme il n'existe aucun taux considéré comme étant le graal, quel intérêt. validation des pages http://www.htmlhelp.com/ qui peut aller jusqu'à 100 pages, mais sinon, j'utilise weblide, un validateur qui est vraiment très bien et qui affiche bien plus d'infos que les validateurs W3C habituels
ID Bot Posté 13 Octobre 2008 Posté 13 Octobre 2008 Bonsoir à tous, Je me permets d'intervenir, je suis le responsable du logiciel ID Bot, et je souhaiterais apporter quelques remarques par rapport aux différents commentaires ci-dessus. Vous avez tous cité des logiciels gratuits qui permettent effectivement de fournir des informations que l'on retrouve dans ID Bot. Mais lancer ces outils prend du temps... Effectivement investir 350 à titre perso pour récupérer ces informations n'est pas forcement justifié, mais pour une société, ce montant est dérisoire compte tenu du temps qu'il faudrait pour tout vérifier. Vous avez cité différents logiciel, Google Webmaster tools, ou encore un script php afin d'analyser les logs, mais dans ces cas précis vous êtes passifs par rapport à votre site. Dans un cas c'est google qui vous indique l'erreur dans l'autre c'est un client voir pire un prospect. Pour avoir testé Xenu ou W3C Link Checker, ces logiciels gèrent très mal les liens absolus, et voient des erreurs, la ou il n'y en a pas. Je ne cherche à convaincre personne. Vous n'êtes pas obligés de passer par un professionnel pour votre référencement, tout dépend du temps que vous êtes prêt à passer. Je vous propose de tester gratuitement ID Bot pour 25 pages ;-) Stéphane
Dudu Posté 14 Octobre 2008 Posté 14 Octobre 2008 Bonjour Stéphane, et bienvenue sur le Hub Bonsoir à tous, Je me permets d'intervenir, je suis le responsable du logiciel ID Bot, et je souhaiterais apporter quelques remarques par rapport aux différents commentaires ci-dessus. Tout d'abord, merci d'être venu en personne défendre votre produit. Comme j'ai été un des plus virulents acteurs du lynchage sus-cité, je me permets de vous répondre à mon tour. Vous avez tous cité des logiciels gratuits qui permettent effectivement de fournir des informations que l'on retrouve dans ID Bot. Mais lancer ces outils prend du temps... Là-dessus, je suis d'accord. Tout rassembler en un seul outil est clairement votre point fort. Effectivement investir 350 à titre perso pour récupérer ces informations n'est pas forcement justifié, mais pour une société, ce montant est dérisoire compte tenu du temps qu'il faudrait pour tout vérifier. 350 ? Ce n'est pas ce que j'ai lu.J'ai lu 350 pour 2000 pages. Et ça, désolé mais ça change tout. Radicalement. Vous avez cité différents logiciel, Google Webmaster tools, ou encore un script php afin d'analyser les logs, mais dans ces cas précis vous êtes passifs par rapport à votre site. Dans un cas c'est google qui vous indique l'erreur dans l'autre c'est un client voir pire un prospect. J'ai aussi cité Apache et son fichier log d'erreurs.Apache, c'est le système de mon serveur. Ce n'est ni Google (à qui définitivement je ne confierais pas la moindre de mes données), ni un client, ni un prospect. Pour avoir testé Xenu ou W3C Link Checker, ces logiciels gèrent très mal les liens absolus, et voient des erreurs, la ou il n'y en a pas. Xenu je ne connais pas, donc attardons-nous sur w3c Link Checker.Je n'ai jamais vu ou entendu parler d'une mauvaise gestion des liens absolus. Mais je vous crois sur parole (sérieusement). En revanche, vous avez aiguisé ma curiosité donc je serais volontiers preneur d'un exemple. À bientôt
ID Bot Posté 14 Octobre 2008 Posté 14 Octobre 2008 (modifié) Bonjour dudu, Comme j'ai été un des plus virulents acteurs du lynchage sus-cité, je me permets de vous répondre à mon tour. Je te rassure, je n'ai pas vu ton message comme étant un lynchage Le prix, c'est effectivement 350€ pour 2000 pages soit 0,19€ la page, mais sur des volumes plus élevés on descend à 5 cents la page. le ratio prix/page info fournies reste correct ;-) Concernant W3C link checker pour l'avoir notamment testé sur notre site Id Nova, nous avons constaté la mauvaise gestion des urls relatives. Nous avions également noté ce problème sur d'autres sites. A propos du test, tu peux utiliser la démo ;-) Stéphane Modifié 14 Octobre 2008 par ID Bot
Dudu Posté 14 Octobre 2008 Posté 14 Octobre 2008 Le prix, c'est effectivement 350€ pour 2000 pages soit 0,19€ la page, mais sur des volumes plus élevés on descend à 5 cents la page. le ratio prix/page info fournies reste correct ;-) Effectivement, c'est déjà mieux Concernant W3C link checker pour l'avoir notamment testé sur notre site Id Nova, nous avons constaté la mauvaise gestion des urls relatives. Nous avions également noté ce problème sur d'autres sites. Je viens justement de le tester sur idnova.fr et effectivement j'ai plein d'erreurs.Effectivement, elles sont liées à une mauvaise gestion des urls relatives... de votre part. Pour rappel: un lien relatif visant le même répertoire s'écrit ./page-cible.html Un lien relatif visant le répertoire parent s'écrira ../page-cible.html Or, sur la page d'accueil (où par définition il n'y a pas de répertoire parent) vos liens relatifs sont du style ../plan-du-site.php ce qui est une erreur. Les navigateurs font la correction d'eux-mêmes. w3c Link Checker ne corrige pas votre erreur, lui. Je veux bien croire que Link Checker ait des bugs, mais sur votre site il n'en a pas. (en étant un peu mauvaise langue, j'oserais presque dire que c'est étrange qu'IDBot n'ait rien remarqué à ce sujet) PS: oui oui, j'ai bien compris que vous m'invitiez à tester la démo
KnockedMaster Posté 18 Octobre 2008 Posté 18 Octobre 2008 (modifié) Bonsoir ID Bot, Pensant que cette conversation était désertée, je n'ai pas pu réagir plus tôt ... étant moi aussi un des auteurs les plus virulents Tout d'abord, effectivement, merci d'être venu en personne défendre ton produit, c'est courageux et honnête, surtout que ce n'était pas gagné Le tout-en-un, le côté couteau-suisse, clair que c'est le gros avantage de l'application, mais il ne s'avère pas indispensable pour un particulier de posséder un tel outil, et je pense que même les indépendants pourraient s'en passer au vu du prix demandé, même si la précision que tu apportes quant au tarif fait une grosse différence. Perso, il m'arrive de vendre un site à l'occasion, mais je me contente très bien de mes petites applications gratuites ... et je n'ai jamais eu de réel problème avec Xenu. J'ai aussi cité Apache et son fichier log d'erreurs.Apache, c'est le système de mon serveur. Ce n'est ni Google (à qui définitivement je ne confierais pas la moindre de mes données), ni un client, ni un prospect. Tout pareil Comme déjà dit, j'estime que c'est loin loin d'être indispensable et, à la limite, je pense que l'outil ne se justifiera que pour les plus grosses boîtes, et encore. Bonne continuation ! PS : une chose est sûre, il carbure à l'eau claire le p'tit, parce que là ça fait 20 bonnes minutes qu'il scanne mes 25 pages, et toujours rien EDIT : enfin, fini ! Temps du scan pour 25 pages, 13 heures ! On est le week-end mais quand même, c'est très long. Puis ton bazar il me met des grosses croix rouges qui font très peur pour me dire, par exemple, que la meta description de ma page d'accueil est trop longue ou que j'ai trop de titres de niveau h2, ou que mes title, y sont pas catholiques. Mouais, cette page d'accueil est quand même dans le trio de tête pour toutes les grosses requêtes visées. Je l'ai faite en pensant aussi aux utilisateurs, et elle est correcte sur le plan structurel, même s'il y a 5 ou 6 h2. Et pour mes title, je pense être plus apte à leur rédaction qu'un programme informatique. Bref, toujours pas convaincu eu égard à la quotité non exemptée que tu demandes Modifié 18 Octobre 2008 par KnockedMaster
Leonick Posté 18 Octobre 2008 Posté 18 Octobre 2008 Pour avoir testé Xenu ou W3C Link Checker, ces logiciels gèrent très mal les liens absolus, et voient des erreurs, la ou il n'y en a pas. Je viens justement de le tester sur idnova.fr et effectivement j'ai plein d'erreurs. Effectivement, elles sont liées à une mauvaise gestion des urls relatives... de votre part. Pour rappel: un lien relatif visant le même répertoire s'écrit ./page-cible.html Un lien relatif visant le répertoire parent s'écrira ../page-cible.html Or, sur la page d'accueil (où par définition il n'y a pas de répertoire parent) vos liens relatifs sont du style ../plan-du-site.php ce qui est une erreur. Les navigateurs font la correction d'eux-mêmes. w3c Link Checker ne corrige pas votre erreur, lui. .../ (en étant un peu mauvaise langue, j'oserais presque dire que c'est étrange qu'IDBot n'ait rien remarqué à ce sujet) tout à fait. Je n'aurais pas vraiment confiance dans un logiciel qui gère de cette manière les "mauvais liens". En plus ce ne sont pas des liens absolus, dans ce cas, juste de mauvais liens relatifs.Si je prends cette image -http://www.idnova.fr/../images/fr.png cela donne, au final, effectivement l'image, mais parce que le serveur apache a rectifié, avec fort probablement, une erreur affichée dans les logs apache, mais de toutes façons, une augmentation du temps d'affichage du fait de la mauvais url appelée. Sinon, souvent le navigateur rectifiera de lui même, ce qui ne sera pas le cas de yahoo et voilà, par exemple, qui eux, ont souvent du mal, même avec des url bien formées. Alors accorder confiance à un navigateur qui va me cacher ces erreurs, franchement, bof... et quand je vois la liste de redirections 302, alors là, c'est définitif, je préfère travailler avec Xenu (et bien évidemment avoir des pages valides W3C)
yep Posté 22 Octobre 2008 Posté 22 Octobre 2008 Connaissant bien cette problématique (de récupération de l'info, cf. outils-referencement.com), je te tire mon chapeau Stéphane. Pourquoi ? Parce qu'effectivement, beaucoup de webmasters sont habitués à des outils qui ne fonctionnent pas correctement et on a beau en concevoir qui donnent une information plus viable, cela ne se voit pas de leur côté (par exemple la gestion des encodages des pages). De même, et c'est justifié, l'aspect graphique joue même si ce que, normalement, on demande à un outil c'est d'être fiable, après reste à savoir si on l'utilise correctement ou pour obtenir réellement ce que l'on veux.
Sujets conseillés
Veuillez vous connecter pour commenter
Vous pourrez laisser un commentaire après vous êtes connecté.
Connectez-vous maintenant