-
Compteur de contenus
3 093 -
Inscrit(e) le
-
Dernière visite
Réputation sur la communauté
6 NeutreÀ propos de thick
Pour me contacter
-
Mon Site
http://www.laurentbourrelly.com/
Information du profil
-
Genre
Homme
-
Localisation
Andorre
-
Je ne sais pas pour PC, mais pour mon Mac Pro, j'ai acheté un adaptateur pour l'installer à la place d'un des drives DVD.
-
thick a commencé à suivre cms lent , Problème avec un SSD , Faut-il développer des versions mobiles des sites web ? et 6 autres
-
Faut-il développer des versions mobiles des sites web ?
thick a répondu à Ernestine - Forum : Accessibilité et Ergonomie Web
Perso, je pense que ça dépend du site. Pour un forum, blog ou site édito, c'est un énorme confort pour l'utilisateur de disposer d'une version mobile. Pour un site e-commerce, une app dédiée est plus efficace. Je suis revenu des sirènes du responsive web design. C'est un désastre pour la conversion (clic pub ou achat). De l'autre côté, ça me gave les sites édito qui poussent leur app de merde, dès qu'on se connecte via mobile. Bref, je ne crois pas que ça soit la techno qui pose problème, mais ce qu'on en fait. Remarque, ce n'est pas nouveau. En tout cas, c'est un domaine fascinant, qui est encore en friche; il faut explorer. -
Majestic SEO c'est le Citation Flow et Trust Flow et non le trustrank. Ce sont des concepts très intéressants. Plus d'infos => http://blog.majesticseo.com/fr/fonctionnalites/interpreter-trust-flow/
-
Le sitemap xml n'a absolument aucun impact sur le référencement ou même l'indexation; c'est uniquement un outil de contrôle. Eventuellement, cela permet aux moteurs de découvrir des nouvelles URLs, mais cela ne va pas palier à un déficit d'architecture/maillage interne. Par contre, le sitemap HTML est toujours très utile, pourtant il est trop souvent oublié. Sinon, aucun problème pour les "gros" sites. Par contre, il faut découper le sitemap avec une limite max de 50 000 URLs et 10 Mb. Gaffe aussi à la perf pour que ça charge rapidement.
-
Perso, hormis sortir de la Google dépendance en SEO, je fais un effort pour ne plus utiliser leurs outils. Il me reste encore Feedburner à gicler, mais je n'ai plus un besoin vital de Google pour ma vie numérique. En plus des services et outils cités, je rajoute la régie d'affiliation, Google Checkout (remplacé par Google Wallet) et surtout la fonction de téléchargement dans Google Code (vraiment WTF !!!). Il y a aussi toujours les mauvaises surprises liées à l'utilisation de l'API et l'incompréhension générale par rapport à la fermeture de Google Reader.
-
Conseil en soft referencement.
thick a répondu à webmaster-paris - Forum : Techniques de Référencement
Je ne vois pas du tout en quoi une action manuelle serait différente d'une automatique. C'est l'empreinte qu'on laisse qui importe, mais pas du tout le moyen utilisé. On peut faire à la main bien plus crade qu'en automatique... -
Référencement et redirection selon pays et langue
thick a répondu à Ernestine - Forum : Techniques de Référencement
La détection du pays ou du user agent c'est le mal absolu en référencement multilingue. La bonne pratique consiste à déterminer une langue parent, qui sera affichée sur la page d'accueil. Ensuite, des drapeaux ou autres systèmes seront mis à disposition pour que l'utilisateur choisisse une autre langue enfant, s'il le souhaite. Aucune technique ne va diriger automatiquement dans une langue ou une autre. Un très bon Whiteboard Friday de Rand (SEOmoz) sur le sujet http://www.seomoz.org/blog/international-seo-where-to-host-and-how-to-target-whiteboard-friday -
Ca c'est Penguin et il ne s'est pas manifesté depuis 5 ou 6 mois. Cependant, il y a une infinité de pénalités et surtout causes d'une chute du positionnement. Ces 2 animaux du Google Zoo n'en sont que la trace la plus connue. Les filtres sur des thématiques de "mauvais voisinage", dont le porno fait partie, sont très aiguisés. Le site peut tout à fait être tombé sur un filtre destiné à une thématique plus rock n' roll, que son concept originel. Ensuite, le mal se répand comme la gangrène au sein du site, alors qu'il est entré par une porte en particulier.
-
Merci pour ce tuto simple et efficace comme j'aime. Je suis loin d'être versé dans les choses du JS et pourtant j'ai tout compris
-
Le seul moyen d'empêcher un moteur de venir fouiner (il ne respecte pas le robots.txt), c'est login+pass (avec .htpasswd par ex). A moins qu'il ne fasse un Brute Force, ça devrait freiner ses ardeurs.
- 8 réponses
-
- referencement
- cdn
-
(et 1 de plus)
Étiqueté avec :
-
Afficher google adresse sur une expression concurrentielle
thick a répondu à amrani34 - Forum : Techniques de Référencement
Les avis d'utilisateurs comptent pour beaucoup. Bien sûr, ils ne faut pas qu'ils soient bidons, mais c'est un gros facteur. -
D'autres sites de la même thématique ? Sinon, tu peux "interdire" certains annonceurs d'apparaître chez toi. Globalement, il faut que la page traite du sujet en corrélation avec la pub qui va s'afficher. Le système est simple et sophistiqué à la fois, mais rappelle toi que c'est seulement un algorithme qui va jauger de la pertinence, donc il faut lui faciliter le travail.
-
Je pense que le problème est plus profond. En effet, les pubs affichées ne sont pas en corrélation avec le contenu. Je suppose qu'il n'y a pas assez d'annonceurs sur ta thématique. Même en optimisant le placement, il faut que les annonces soient intéressantes pour le visiteur.
-
Je n'ai qu'un mot pour vous révolutionner la perf : https://www.varnish-cache.org/
-
Arf je perds mes reflèxes de SEO en oubliant de faire le lien :-D Merci Dan. Ce que j'exprimais en privé avec Arlette est que Qwant s'est retrouvé dans une situation délicate. D'un côté, faut lancer le moteur pour engranger de la data, mais de l'autre c'est encore plus qu'imparfait. D'où les critiques de ressemblance flagrante avec les résultats de Bing. Le pire a été le traitement par dessus la jambe des journalistes qui se sont contentés d'annoncer un Google Killer. Puis certains blogueurs se sont empressés de fusiller le bouzin, sans même chercher à comprendre les principes de base de construction d'un moteur ou d'un index. Pourtant, Google fait exactement la même chose. Récemment avec les micro-formats ou pire avec le Knowledge Graph, on voit bien que c'est pourri au départ dans le seul but d'acquérir de la data, qui permettra d'affiner les algos. Peut-être que j'ai donné l'impression d'être "pro-Qwant" dans l'itw, mais ma volonté était surtout de contrer les fausses accusations et mauvaises interprétations. Le sentiment que je voudrais véhiculer est de laisser murir ce projet, qui peut présenter des concepts intéressants. Encore une fois, ne cherchez pas le Google Killer !