Aller au contenu

Leonick

Hubmaster
  • Compteur de contenus

    1 339
  • Inscrit(e) le

Tout ce qui a été posté par Leonick

  1. on embauche un salarié, pas un prestataire c'est plutôt le contraire : si aucune cession, en précisant les lieux d'applications, n'est explicitement indiquée dans le contrat, le client a des droits très limités
  2. Si tu prends ce site comme une référence Personnellement, j'ai supprimé nombre de mes sites de l'annuaire de webrankinfo pour ne plus me retrouver dans le dico. Je crois que beaucoup de monde espère que le nettoyage de gg va continuer sur d'autres sites. Ce que tu veux faire, ça s'appelle du spamdexing et google lutte activement contre, même si pas assez vite. Demande-toi pourquoi bonweb a été blacklisté et pourquoi bonkm a passé maintenant toutes ses pages de résultats de recherches en noindex. Maintenant c'est toi qui vois. Mais dans combien de jours, semaines ? vas-tu revenir sur le Hub en disant "je ne comprends pas google m'a blacklisté"
  3. En clair, tu veux que ton associé soit persuadé que cela ne marchera pas et comme ça il laissera tomber et toi, en parallèle, tu cherches une solution, sans qu'il soit au courant, comme cela dès qu'il te diras "je laisse tomber" tu sortiras la solution de rechange pour tout encaisser tout seul. C'est ça ?d'où l'intérêt de ne pas donner de nom de sites, pour qu'il ne puisse savoir qu'une solution existe
  4. Oui, mais le temps que l'on passe à effectuer son référencement ne peut être passé à d'autres activités (recherche de fournisseurs, clients, ...)Donc après c'est un choix. Mais quand dans une entreprise on met du personnel à effectuer une tâche, quelqu'elle soit, pas uniquement dans le monde du webmastering, cela a un coût : le salarié touche un salaire, plus les charges sociales, ... alors on ne peut pas dire qu'en internalisant ça ne coûte rien
  5. non, c'est juste une histoire de buzz : c'était nouveau dans le domaine, alors tout le monde en a parlé et certains ont vu le bon filon et annoncé sur le site.Maintenant, pour les replica c'est autre chose C'est exactement la même chose, buzz gratuit, qui a réussit à faire arriver la ville de montcuq 1° choix sur le site du monopoly
  6. +1pareil, car cela devenait lassant à la fin de devoir tout retaper, surtout quand le formulaire changeait d'encodage
  7. un petit lien sur ce qui se fait aux states http://www.zataz.com/news/16039/portes-cac...secret-NSA.html et on en parlait déjà en 2001 http://www.bugbrother.com/archives/011215.html
  8. Ca dépend de ta thématique, mais moi j'ai quelques annuaires, différents selon mes sites (qui peuvent être soit des annuaires généralistes, sur certaines thématiques, soit des annuaires ciblés sur d'autres), qui m'amènent des visiteurs très ciblés. Ciblés pour mes sites irl et pas juste revenus publicitaires. Ce sont des visiteurs qui font des demandes de devis, qui répondent à des annonces, ... Et pourquoi connaitrait-on plus facilement des sites avec un fort PR ?
  9. Un mélange de citation de l'évangile avec du MLM c'est un voisinage assez spécial à mon avis.
  10. j'ai mis quelques temps à comprendre, car initialement je pensais comme toi, mais ça ne correspondait pas avec mes stats, surtout sur des mots clés qui étaient le nom de l'entreprise et pour lesquels on devait obligatoirement arriver sur le site.
  11. l'interface ne dit nulle part qu'il y a 2 fois plus de requêtes sur "depannage informatique" que sur "dépannage informatique" mais que ton site placé sur la 7° page pour la 1° requête a été affiché 2 fois plus que le même site placé sur la 6° page de la 2° requête, ce qui n'est pas pareil du tout.Car il faut déjà que l'internaute aille jusqu'à la 6° page des résultats et ce n'est pas gagné d'avance. Car il faut que sur les pages précédentes il n'ait pas trouvé ce qu'il voulait pour arriver à afficher ton site sur les SERP. On peut avancer une hypothèse qui est que la personne qui sait taper sans accent, si elle n'obtient pas ce qu'elle veut aura la présence d'esprit de taper une requête plus précise, du genre avec le nom de la ville et donc ira moins loin. Ensuite, être bien positionné sur une requête ne veut pas dire visite et encore moins client pour des activités irl. Sinon, tous les internautes s'arrêteraient à la 1° page et tu vois qu'ils vont bien jusqu'à la 7°. Car pour une activité réelle, il faut aussi la proximité et avec une requête généraliste, il faut aller loin pour une bonne localisation. Pour ce qui est des fautes et accents manquants, il faut faire ses sites pour les internautes en 1°. Et personnellement, un site qui écrit avec des fautes voire en kikoulol ça ne m'inspire vraiment pas confiance
  12. Leonick

    Multi connexions

    Sur free ça risque de ne pas être facilement faisable. Sur un autre ndd sur lequel tu as les droits, tu peux essayer de mettre les cookies au niveau du domaine et pas du sous-domaine
  13. problème très courant quand on copie du texte depuis microsoft word
  14. +1tout à fait d'accord, c'est pour cela que j'ai donné mes exemples, qui ne correspondent à aucune de mes requête. Car malheureusement, pour beaucoup de webmasters, la pertinence d'un moteurs c'est quant leurs sites sont dans les 5 premiers résultats des SERP pour TOUTES leurs requêtes. Hé ben non, désolé de vous le dire, mais la pertinence ce n'est pas ça Ma requête qui servait à montrer que exalead n'avait pas de pertinence était "adopter un chat à lorient" pour laquelle mon site de triath1on se retrouvait en 1° page (maintenant en 2°). J'avais trouvé cette requête via un manque de pertinence de google, car un visiteur était venu avec cette requête. J'avais donc comparé sur les autres moteurs. Google avait rapidement corrigé sa pertinence, exalead avait mis le temps. Mais là dessus, quand on effectue cette recherche sur google, trouvez-vous pertinent que 93 des 100 premiers résultats soient des sous-domaines de kizizi ? moi non Donc c'est vrai que le filtrage des sous-domaines que doit appliquer google ces jours-ci se fait bien attendre
  15. avant de vouloir s'attaquer aux fioriture, il faut commencer par avoir une pertinence, ce qui est très loin d'être le cas. Même si au niveau des redirections 301, ils ont fait du progrès, ce qui n'est pas le cas de yahoo : des pages redirigées sur un autre domaine depuis près de 2 ans avec un code 301 restent toujours sur yahoo !
  16. il a encore du boulot pour arriver, ne serait-ce qu'au niveau de yahoo et live. Quand je fais une recherche sur le nom d'une ville, sans rien d'autre dans la requête, la moindre des choses serait de retourner le site officiel de la ville en premier, ou alors celui de l'office du tourisme. POur exalead, non Si on recherche Paris, le site officiel de la ville de la ville arrive en 3° après la cité des sciences et l'école des Mines, sur "Rennes" le site de la ville est 2° après celui de l'académie de Rennes, et le mieux étant pour "Lyon" où la 1° page du site de la ville est 41° et on ne trouve même pas la page d'accueil du site de la ville dans les 100 premiers résultats. Par contre, on trouve 4 pages de ce site dans les 100 premiers résultats. Google limite à 2 les résultats de chaque site pour une requête donnée. Sur cette requête, google affiche le site officiel en 1° avec son sitelink. Donc avant que j'en arrive à utiliser un autre moteur que google pour mes recherches, il va falloir que les concurrents s'améliorent
  17. et tu crois que ça empêche les gens de le faire ?regarde http://www.google.fr/search?q=%22Paris+est...0H&filter=0 et c'est loin d'être le seul cas
  18. wikipedia ? c'est pas mal utilisé dans les MFA
  19. En fait, c'est simple, soit les personnes ne lisent que le titre du poste et n'ont pas envie d'être cantonnées à faire juste de l'intégration, soit elles lisent les tâches qui seront affectées à ce poste et là, avec le recettage du développement à effectuer, des chefs de projets répondent. Il faut arrêter de vouloir des moutons à 5 pattes : un webmaster débutant avec 10 ans d'expériences, un chef de projet qui connait 15 langages de développement différents, qui aille faire de l'avant vente voire de la prospection, l'administration de serveurs apache, linux, windows et pourquoi pas faire le café ?
  20. ils savent aussi, et moi même je leur rappelle, qu'il peuvent faire ce que certains appellent un "site internet" presque gratuitement : il font leur page avec word puis fichier/enregistrer sou (format html).Mais après il faut savoir ce que l'on veut obtenir et si on veut se donner les moyens d'y parvenir. Une page web qui ne sera jamais vue, quoique ça n'est pas plus mal, ou bien un vrai site web avec toute la partie SEO derrière et la connaissance marketing online pour accrocher le visiteur/client Et ça, ça a un certain coût.
  21. un bon site de spam, c'est quoi ? 5 fois le mot clé dans la balise title, 8 fois dans la description et 10 fois dans la keywords plus 10 à 15 fois dans le corps du texte donc je regarde la keywords, je vois qu'il y a une forte proportion de "billet avion". Je me dis "pourquoi pas regarder le taux de présence de ce mot clé dans le title, description et le corps de la page. Si là aussi c'est très fort, bingo, je suis tombé sur un spammeur. Donc 1° étape, je le sandbox sur "billet avion" et je regarde ensuite l'évolution du code de sa page Si ce n'est pas trop fort, je ne fais rien
  22. Non, le client achète un service, pas un prix. Sinon il faut l'éviter.Toi, tu vends comme service de faire l'interface avec le prestataire d'hébergement. Et ça a un coût en temps et donc en prix. Faut pas vouloir tout le temps se brader. Si rien ne se passe le client croira avoir payé pour rien ? c'est comme avec les assurances : on paye même quand on n'a pas d'accident, mais quand on en a un, on est bien content d'avoir une bonne assurance
  23. ils ne pénaliseraient pas là dessus, mais ça leur permettrait de savoir sur quels mots clés il fallait vérifier s'il n'y avait pas de suroptimisation dans le site
  24. voila pourquoi personne n'a répondu à ton post
  25. non, car entrekeywords="billet avion voyages tourisme" et keywords="billet billets avion avions billet voyages avions tourisme voyage voyages" il sait faire la différence
×
×
  • Créer...