-
Compteur de contenus
2 598 -
Inscrit(e) le
-
Dernière visite
Tout ce qui a été posté par Sebastien
-
Le moteur Exalead web au 20H
Sebastien a répondu à Franck-Util - Forum : Techniques de Référencement
Ayant été sur place le jour du reportage, je précise que Exalead n'a pas du tout le ton prétentieux que le reportage semble faire croire... Ah ces journalistes... -
Regarde ici : http://www.triumphantmedia.com/projects.php Un script php qui affiche au hasard n'importe quel contenu (dont du code) inclu dans un fichier texte.
-
Voila se met au web 2.0 et aux folksnomies
Sebastien a répondu à Sebastien - Forum : Le salon de Webmaster Hub
Pourvu que personne ne les hacke -
Ca dépend... pour un IP wanadoo c'est à priori fiable, pour une IP AOL ca l'est moins...Tu peux aussi recouper avec les infos que donne le forumeur. Quelle est l'adresse en question ?
-
Ca dépend, l'IP peut etre celle d'un proxy situé à un endroit completement différent de l'iutilisateur.
-
Disons qu'il y a 2 facons de representer une image : -En mode "bitmap", càd que l'image est composée de points (pixels). bmp, jpeg, png sont des formats de type bitmap. -En mode "vectoriel", càd que l'image est composée de courbes (definies par des vecteurs) avec des propriétés d'épaisseur, de couleur, de remplissage etc. C'est le mode idéal pour les logos car on peut aggrandir à l'infini vu qu'il n'y a pas pixelisation. Les formats peuvent etre ai, svg, eps...
-
Si tu a un jpeg de résolution correcte, tu pourra le vectoriser et donc l'adapter à tout support y compris le web. Et sinon, il est toujours possible de bricoler dans photoshop en mode bitmap. Mais tu perds le bénéfice des agrandissement extremes en mode vectoriel.
-
La façon la plus propre de travailler serait de vectoriser ton image dans Illustrator ou Inkscape (gratuit) afin de s'affranchir des contraines de résolution. Tu pourra ensuite modifier à ton aise contours, couleurs, transparences etc pour exporter en bitmap.
-
Ce réseau de sites n'est jamais en effet qu'un réseau de sites satellites. Je ferais une redirection 301 à partir des sites qui ont éventuellement un certain PR et je desactiverais tous les autres domaines, qui n'ont aucune utilité.
-
Si les URLs restent les mêmes et que leur contenu ne change pas, la seule influence du changement devrait être positive Surtout si tu passes d'une "soupe de tags" sans balisage sémantique à un contenu correctement structuré !
-
Recherche, sur les moteurs de recherche
Sebastien a répondu à Dagnan - Forum : Techniques de Référencement
Je tiens un blog qui traite entre autres de la recherche d'information. Il s'agit essentiellement de tests et d'actualité pas d'articles de fond. Mais ca te donnera peut etre quelques pistes. Voici la rubrique "recherche d'information" : http://s.billard.free.fr/referencement/ind...he-dinformation -
Un lien sympa également qui illustre bien le processus : http://leftjustified.net/site-in-an-hour/
-
Sortir de : Sandbox ou duplicate-content ?
Sebastien a répondu à Anonymus - Forum : Techniques de Référencement
Au pire une fois réinclus tu fais une 301 du nouveau domaine vers celui ex-blacklisté Si c'est bien au niveau technique, c'est cependant moyen en terme de branding. -
Recherche d'url commande google
Sebastien a répondu à australien - Forum : Techniques de Référencement
http://madamesoleil.google.com -
Prépondérant non, discriminant oui en ce sens qu'il fait la différence entre des pages avec un scoring proche. Mais la démarche la plus saine en matière de référencement est pour moi d'abandonner l'idée de s'acharner sur un critère soit disant prépondérant au dépens des autres, pour optimiser tous les critères. On s'assure ainsi un référencement "tout terrain", qui se positionne de façon satisfaisante dans tous les moteurs
-
On dira ce qu'on voudra, les sites populaires en terme de liens ont et auront toujours globalement une tendance à être mieux placés que le sites avec une popularité faible, même si le poids de ce critère peut varier.
-
Par rapport à une requete donnée, Google regarde son index et attribue aux pages un score intermediaire, critère par critère. En gros il attribue des points à ceux-ci : "title : 4 point, anchor text : 2 points etc... Ensuite il multiplie le nombre de point obtenues par le PR pour obtenir le score final.
-
C'est bien pour ça que les moteurs multiplient les critères de scoring
-
Ce serait un gros retour en arrière : à l'origine les 1ers moteurs plein texte indexaient le contenu en vrac en se fichant du balisage...
-
D'ailleurs les moteurs ne devraient pas tenir compte du contenu des sites, c'est trop facilement manipulable, les webmasters pourraient se mettre à écrire
-
http://www.pingoat.com/
-
J'en entends beaucoup de bien, c'est le forum utilisé sur le site Dotclear, et par Taggle. C'est un forum aux fonctionnalités minimale, mais qui fonctionne bien apparament.
-
Proteger une page web
Sebastien a répondu à ZeDevil - Forum : Fichier .htaccess et réécriture d'URLs
Le point dans ".htaccess" signifie un fichier caché, et un accès direct retourne une erreur 403 (forbidden). -
C'est vrai que dans IE ca "rame" un peu faute au moteur CSS pas génial... ca me fait ca aussi avec blogmarks par exemple et le sites avec de feuilles de style un peu lourdes
-
Proteger une page web
Sebastien a répondu à ZeDevil - Forum : Fichier .htaccess et réécriture d'URLs
via .htaccess : http://www.commentcamarche.net/apache/apacht.php3