-
Compteur de contenus
3 093 -
Inscrit(e) le
-
Dernière visite
Tout ce qui a été posté par thick
-
les metas sont-ils toujours nos amis?
thick a répondu à Clayboy - Forum : Techniques de Référencement
Je fonctionnais sur ce modèle de code source auparavant, mais maintenant je penche plutôt pour pour présenter le corps du contenu juste après la balise <body>. Et franchement ça marche plutôt pas mal. Merci les pages sans tableaux en full CSS -
Le problème de DMOZ c'est que le bénévolat tourne à la mafia. D'accord avec toi pour dire que le concept est fabuleux, mais la cupidité humaine en a fait une espèce de mafia indigeste pour le commun des webmasters. Ben je dois avouer que le trafic emanant de DMOZ est proche du néant pour ma part et pourtant j'ai de nombreux sites inscrits et certains dans des catégories qu'on peut croire "populaires". Pour une quelconque pondération vis à vis du positionnement je n'ai jamais vu une moindre influence de DMOZ par rapport au reste de paramètres. Bref, j'ai adhéré au concept DMOZ mais le mythe qui tourne autour de cet annuaire est totalement galvaudé. Pour dire vrai ça doit faire plus d'1 an que je n'ai pas pris la peine de soumettre un site chez DMOZ et je ne pense pas soumettre un site de sitôt.
-
On dirait bien que Google a fait un peu de tuning sur Sitemap car vos retours semblent plus prometteurs que ce que j'ai lu auparavant. Je vais replonger dans des tests Sitemap
-
les metas sont-ils toujours nos amis?
thick a répondu à Clayboy - Forum : Techniques de Référencement
En effet la meta description n'a aucune influence sur le positionnement. Si elle est bien construite c'est un avantage quand Google décide de l'afficher dans ses résultats mais si la meta est identique sur toutes les pages il est clair qu'il vaut mieux s'en passer. -
Très chouette. Merci pour ce tutorial vidéo. On attend les prochains !
-
Emplacement de la banniere de pub
thick a répondu à worms91 - Forum : Régies pub au clic/à l'affichage
Contrairement à la pensée habituelle, je préfère que mes visiteurs "partent" vite si le site a vocation commerciale (clics et/ou vente). C'est un peu le principe du "clic or die" qui veut qu'un site soit simplement une passerelle. Dans ce cas, le nombre de pages consultées ou le temps de visite se montre efficace s'il est très court. -
Emplacement de la banniere de pub
thick a répondu à worms91 - Forum : Régies pub au clic/à l'affichage
Nope c'est interdit -
Vi j'ai peut-être confondu la source, car ce n'était pas le billet cité par TheRec et je ne trouve rien sur le blog de MC. GoogleGuy sur WMW peut-être ? Ou alors ce n'était pas MC/GGGay du tout. Bref, désolé d'apporter un peu de confusion...
-
Ben non justement J'ai cherché hier l'URL avant de poster mais je n'ai pas retrouvé le billet en question. Je me rappelle juste que c'était dans les premières interventions de MC, mais c'est tout. Sorry
-
Matt Cutts avait signalé sur son blog que des liens absolus étaient mieux car : 1) ça économisait des ressources serveurs chez Google 2) ça améliorait le process de mise en cache; surtout lorsque ça part en vrille Par contre, aucun impact sur le référencement, mais j'écoute le Maître et mes URLs sont désormais absolues
-
Toujours plus de fun avec Google Earth grâce à http://fr.sketchup.com/ Cette société vient d'être achetée par Google et ce dernier propose le logiciel de conception 3D qui permet de modéliser sa maison (par exemple) et ensuite de la poser dans Google Earth.
-
Si tu veux bidouiller Google Maps comme il faut c'est plutôt du côté de l'API qu'il faut se tourner http://www.google.com/apis/maps/
-
Il faut aussi garder à l'esprit que Google Trends ne prend en compte qu'une partie de l'index. Comme tu le suggères il y a donc un problème réel pour quantifier correctement les résultats. Bref, je pense que ça peut être un outil utile pour se donner une idée d'une cible, mais je ne le prendrais pas pour le message du messie pour autant
-
Pas toujour inutile, mais c'est plutôt à pile ou face pour savoir si ça va accelérer l'indexation. Pour ma part, j'ai eu à peu près 50% des sites neufs sur lesquels j'ai mis une GG Sitemap qui ont eu les faveurs d'une indexation rapide, principalement grâce à SiteMap. En tout cas c'est clair qu'on peut s'en passer
-
Pour visiter un site qui figure sur vos Adsense il suffit de cliquer sur "Annonces Google" qui figure à côté des pubs. Ensuite un simple copier coller de l'URL qui vous intéresse et le tour est joué. C'est en tout cas la méthode préconisée par Google pour ne pas cliquer sur vos propres pubs.
-
Je dirais même plus "ça va faire mal" ! On vient de voir quelques jugements concernant des personnes qui faisaient leur commerce sur eBay en toute impunité sans déclarer quoi que çe soit au FISC et je pense que les premiers cas d'affilmasters assignés devant une cour de justice ne sauraient tarder.
-
Google ne crawle plus mes sites depuis un moment
thick a répondu à campagne - Forum : Techniques de Référencement
Le problème n'est pas le crawl car même si le Bot passe sur les pages il traîne carrément pour les rentrer dans l'index. La rumeur dit que Google tourne à pleine capacité au niveau des serveurs et les choses devraient rentrer dans l'ordre quand l'infrastructure sera complètement mise à jour. Bref, comme dit Jan il faut attendre -
De nombreuses régies ont déjà eu des demandes officielles de la part des impôts pour obtenir la liste des affiliés. Il ne fait aucun doute qu'Adsense a aussi communiqué ses listes aux autorités. Ceux qui ne déclarent pas les revenus Adsense jouent à la roulette russe. Après, l'ouverture d'Adsense au particuliers est certainement un gage de succès populaire mais aussi une confiance qu'il va être difficile de faire pérdurer si la fraude fiscale s'avère être dominante. D'autre part, à mon humble avis, les régies demandent maintenant un numéro de TVA car la gestion des particuliers n'est pas rentable en terme de coût/revenu. Ils se sont aperçus que les particuliers généraient un CA microscopique et que la gestion de leurs comptes demandent du temps et de l'argent qui n'est pas rentable. Quand un affilié est en société c'est qu'il a déjà pris un peu d'envergure et il est plus probable qu'il génére un revenu assez conséquent afin qu'il soit rentable. En gros, les régies préfèrent avoir 10 affiliés qui rapportent pleins de sous/clics que 1000 qui rapportent des clous.
-
Pour ma part je compte revenir sur les paiements en $ et les investir tels quels. Ca remontera bien un jour ...
-
Intéressant comme outil. Mais est-ce que c'est permis par Adsense ?
-
Tu as Maison & Confort sur http://www.netaffiliation.com
-
Le spam marche toujours, mais le spam d'hier n'est pas celui d'aujourd'hui ni celui de demain. Appollo a raison de dire qu'ils sont "meilleurs" s'ils se positionnent devant avec un site aux pratiques douteuses, mais il faut préciser que le spam est aussi un vrai travail s'il veut obtenir des résultats. Ceux que je connais balancent des centaines de sites par jour et leurs techniques pour obtenir des backlinks m'étonnent toujours par leur ingéniosité. Au contraire, faire un site de contenu intéressant et procéder à une amélioration de la popularité est aussi un travail difficile mais à l'opposé des techniques de spam dans la méthode. Les intérêts commerciaux du Web ont engendré la présence de spammeurs en grand nombre et même si je n'approuve pas leurs techniques je dois bien avouer que ce n'est pas par coup de chance ou grâce à l'utilisation de secrets du référencement qu'ils sont positionnés. Les spammeurs sont aussi des travailleurs acharnés, mais seulement ils n'utilisent pas leur intelligence à présenter des pages qu'on considérerait comme propres avec forte valeur ajoutée sur le contenu.
-
TheRec j'ai essayé le format HTML de Word mais je me retrouve avec un max de balises à éradiquer. Forth, pas mal Lodel. Merci pour l'info
-
Merci pour toutes vos réponses Le Hub est toujours le meilleur pour obtenir les réponses dont on a besoin en 1 temps record. Concernant Word je suis vraiment un utilisateur de base et je connais pas les fonctions avancées de type VB mais je vais y jeter un oeil. La solution de Jan et de Dudu m'a l'air aussi très intéressante. Encore merci @+ Laurent
-
Bonjour à tous, Voilà mon dilemne : Du contenu est créé sur mesure par des personnes sans aucune connaissance en HTML. Ce contenu arrive donc en format .doc (Word) qu'il faut ensuite passer sous HTML avec la perte de temps que cela implique puisque Word génère tout un tas de "saloperies" qui viennent salir le code source. C'est aussi sans compter le répétitif copier-coller... Bref, je voulais savoir s'il existe un traitement de texte qui soit capable de générer un code HTML simple et propre. En effet, le code source final qui accueille ce contenu est en XHTML et il suffit donc que le document de base puisse générer les titres, sous-titres (H1, H2, etc) et les listes (ul) de façon générique. Merci @+ Laurent