-
Compteur de contenus
3 376 -
Inscrit(e) le
-
Dernière visite
Tout ce qui a été posté par Cariboo
-
La nouvelle interface de Gandi est une catastrophe. C'est joli, mais leur site est chroniquement inaccessible. D'autres choses ont changé aussi derrière visiblement.
-
Ce critère de densité de mots clés n'est plus employé par les moteurs depuis très longtemps. Les algorithmes actuels sont plus sophistiqués, le résultat étant, comme le dit Karak, que la règle change suivant le contexte (le contenu de la page, la thématique, le contexte, le corpus). Bref, faire du keyword stuffing, des fois ça marche, des fois ça marche pas...
-
ExpressionEngine ? Pour du multiblog ? Là je ne suis pas du tout convaincu. Pour autant que je sache, c'est un CMS, il y'avait bien un outil multiblog fait par la même boîte que ExpressionEngine, baptisé pMachine, mais je crois qu'ils l'ont abandonné. Plog (pardon Lifetype) pour 1000 blogs cela tient sans problème. Mais il faut un gros serveur quand même avec un gros disque et il ne faut pas essayer d'aller au delà (sauf à accepter que cela rame si beaucoup de bloggers sont actifs sur les 1000 et génèrent du trafic), j'ai testé pour vous ! Au delà, cela demande des développements spécifiques : car aucun logiciel que je connaisse ne gère correctement le clustering de plusieurs serveurs avec une seule interface pour rediriger vers le serveur où est réellement hébergé le blog... Pour un multiblog genre Plog, la limite est fixée par la taille maximale que peut atteindre la base des blogs. Pour ceux qui cherchent la locale en français de LifeType elle est en pièce attachée sur ce post locale_fr_FR.php.gz
-
Oui il y'a bien une traduction (en tout cas cela existait pour Plog, la version d'avant). D'ailleurs, le problème sur Lifetype, c'est qu'ils ne donnent pas accès aux anciennes ressources. Pour mieux répondre à ta question, quel volume de blogs veux-tu créer ? Parce que pour 2, pour 50, pour 1000, et pour 50 000, la réponse ne sera pas la même.
-
Ton siège sera en Tunisie, mais tes clients en France je suppose ? Par contre, les sites seront produits où ? En effet il faut se méfier, la "délocalisation" du siège n'empêche souvent pas les lois fiscales et sociales françaises de s'appliquer. 1/ Pour la France : recherche d'antériorité auprès de l'INPI. Pour la Tunisie, je ne sais pas. 2/ Si ton nom est pris en Tunisie, et que tu cherches à créer une société tunisienne, c'est effectivement un problème.
-
La plupart des systèmes respectent un principe : les coordonnées de l'acheteur ne sont pas transmises au système de la banque, et la banque ne donne aucune info sur la personne qui a payé (et surtout pas ses coordonnées bancaires). Comment ça marche alors ? Ton système doit être capable de générer un numéro de commande unique, c'est lui qui est transmis à la banque, avec le montant à payer. Ensuite, la personne paie cette commande avec le script sécurisé fourni par la banque (le TPE). Le script de la banque appelle ensuite un script chargé d'enregistrer la réponse du TPE, en général un simple code (genre : 0 abandon, 1 OK, c'est payé, 2 carte refusée, 3 limite dépassée...) Bref, il faut juste mettre en place une traçabilité parfaite des bons de commande. Si tu es en mesure, dans ta base, d'associer correctement un bon de commande à la personne qui a passé commande (ou rempli un formulaire d'adhésion), le tour est joué. En fait c'est simple.
-
Les actions collectives à la mode américaine sont toujours exclues en France, même si une proposition de loi en ce sens risque bel et bien de passer. Mais les actions collectives seront probablement très strictement réglementées, beaucoup plus qu'aux Etats Unis. Par ailleurs, le principe de ce site me semble limite par rapport à plusieurs réglements sur la publicité et les avocats, c'est assez étrange. Dans ce milieu là en général on ne prend pas de risques. A ma connaissance, les avocats n'ont pas le droit de faire de la publicité pour leur cabinet. Même dans les pages jaunes, c'est contesté ! Les clients, par contre, peuvent plus facilement parler de leurs problèmes.
-
Non, le statut d'étudiant ne permet aucune exonération de charges... Au delà d'un certain niveau d'activité (nombre d'heures travaillées) on perd d'ailleurs la protection sociale spécifique aux étudiants. Et au delà d'un certain niveau de revenus, on perd toutes les aides sociales.
-
Il doit y avoir autre chose car je n'ai pas de tiret dans les domaines, pas de trailing slashes, et pourtant mon principal site a perdu 75% des pages trouvées par la commande site !
-
Google m'a fait passer un site de 600 000 pages indexées à 120 000, sauf que j'ai bien 120 000 pages différentes (en gros) mais pas 600 000. Donc j'adhère à l'hypothèse de Sébastien (mais cela reste une hypothèse). Aucun impact sur le référencement (mais alors aucun, nada)
-
Cycle d'articles sur la sémantique appliquée
Cariboo a répondu à Cariboo - Forum : Techniques de Référencement
C'est prévu, mais mon temps est sérieusement entamé ces temps ci par mes activités professionnelles (en plein boom) et par ma vie personnelle. Promis, je m'y remet avant l'été... -
Le problème ne sera pas le processeur, mais la mémoire, et le "tuning" Apache/Mysql. Bref, il vaut mieux 2 Go de RAM, et surtout, bosser les paramètres dans le fichier de configuration... J'ai un phpadsnew qui gère justement un peu plus que le nombre d'affichages dont tu parles, il est sur un Xeon, mais a tourné sur un PIV 2 Ghz, donc je te confirme qu'au niveau proc, cela ira.
-
le meilleur moyen de promotion d'un site, please?
Cariboo a répondu à virtuose1 - Forum : Techniques de Promotion
Le marketing et la communication sont des métiers à part entière, et la promotion d'un site demande un travail sérieux, des moyens et une réflexion très en amont du projet. Le problème c'est que l'importance de la dimension promotion/ marketing/ communication est souvent "zappée" par les webmasters par ignorance, négligence, ou tout simplement par manque d'attrait pour la discipline... J'ajoute que la dimension commerciale est souvent zappée également, et là, c'est dommage pour le compte en banque... Nous avons d'ailleurs prévu avec les autres admins du Hub d'intégrer des conférences sur ces sujets dans le prochain w3-campus. -
L'approche statistique pour l'étude des moteurs de recherche a été testée par quelques référenceurs pro américains, et ... bernique, rien de tangible à l'arrivée. Par contre, ces études ont le mérite de tordre le cou à des idées reçues... Comme l'influence du pagerank sur le classement. Pourquoi l'approche statistique n'apporte que peu d'enseignements ? Il y'a trois raisons à cela, bien connue des chercheurs en IR : - l'index de google n'est pas stable dans le temps : le temps de faire une étude, l'index a changé, et l'algorithme aussi. Si on détecte un changement dans les pages de résultat, il est difficile de savoir si c'est l'index qui a changé, ou l'algorithme, voire les deux. En plus, il y'a le jeu des multiples datacenters avec des index différents... - l'algorithme de google n'existe pas... C'est un abus de langage. Il y'a bien un algorithme de calcul du pagerank, le reste n'est qu'une combinaison de critères de notation. On sait qu'il en existe plus d'une centaine. Faire du reverse engineering là dessus consiste donc à résoudre une équation à plus d'une centaine d'inconnues, sans connaître le degré de chaque monôme... - le dernier point, totalement bloquant celui là, c'est que le critère le plus important est statistique... La plupart des moteurs utilisent la linguistique statistique (ou une alternative probabiliste) pour déterminer quelles pages sont pertinentes en réponse à une requête donnée. Pour en tirer des conclusions sur l'algorithme, il faut connaître le corpus de départ : le world wide web entier, dans la version indexée par Google (qui est différente du www réel). On peut avoir des résultats "approximés" à condition de disposer d'une très grosse partie de l'index global (chaque requête tapant sur une toute petite zone du web, dont les résultats statistiques peuvent être influencés parfois par un petit nombre de pages). Bref, pour faire du reverse engineering efficace, il faut avoir l'index de Google sous la main pour faire des mesures précises. Ce que personne n'a, sauf Google, qui n'a pas besoin de reverse engineering.
-
En matière de reverse engineering, environ 8 ans de travail de plusieurs milliers de personnes... Sur le plan expérimental : huit ans pour des millions de webmasters... Mais pas grand chose de concret n'a été trouvé... Il faut dire que l'exercice (le reverse engineering) trouve rapidement ses limites dans le cas d'un moteur de recherche.
-
D'abord le référencement est une école de patience. Donc, qu'un moteur prenne plus de temps qu'un autre pour prendre en compte certains changements, c'est une réalité. Ensuite, juste une suggestion : le référencement, ce n'est pas qu'une histoire de liens. C'est surtout, et avant tout, l'optimisation du contenu et de la structure du site. Et là, tu as encore des marges de progression importantes...
-
La solution que tu proposes aura plutôt tendance à compliquer la vie du robot d'adsense... Il y'a une règle d'or à respecter concernant adsense : il faut qu'il ait du contenu à se mettre sous la dent pour qu'il arrive à déterminer correctement le sujet de la page. Sinon, cela devient aléatoire... Donc, pas de balise magique, mais du texte, du texte, et encore du texte (un paragraphe suffit, pourvu qu'il ne soit pas ambigu...)
-
Je corrige ce contresens très répandu, non, "à but non lucratif" ne veut pas dire interdiction de faire des bénéfices... Toute organisation bien gérée ne peut pas être déficitaire sinon c'est la ... faillite ! Donc, quand tu gères une asso, tu essaies de faire de préférence plus de recettes que de dépenses, et si tu as fais des bénéfices, et bien, tu les réinvestis dans l'asso. En, à but non lucratif signifie que les "associés" dans une association, ne peuvent se voir attribuer une part des bénéfices de l'association (ce qui différencie l'association loi 1901 d'une société commerciale classique, qui elle, distribue des dividendes), et d'une manière générale qu'ils ne doivent pas être "interessés" (au sens intérêt financier) à la gestion de l'association. Par contre, dès qu'une association sert de structure commerciale, et uniquement de structure commmerciale, la réglementation fiscale fait que toutes les formalités et toutes les taxes sont dues comme pour une entreprise commerciale (IS, TP, TVA), bref, on a tous les inconvénients d'une société commerciale sans les avantages (on est propriétaire de rien, tout appartient à l'asso ..., et une asso appartient à personne) Si une partie de l'activité seulement est commerciale, c'est cette partie qui fait l'objet de toutes les taxes et impôts. Pour les tordus et les alsaciens-lorrains, je signale le statut d'association à but lucratif loi de 1907 ... Si c'est possible.
-
David1986>La question c'est aussi de savoir ce que tu veux faire de tes stats : les analyser, en les gardant pour toi, ou les communiquer à l'extérieur. Dans le premier cas, tu as beaucoup de solutions à ta disposition... Dans le second cas, à part Xiti / Médiamétrie-Estat, voire Weborama, tu n'as pas trop le choix. Car les solutions site-centric ne sont pas toutes reconnues (connues). Autre possibilité, prendre un autre système et acheter la certification OJD (en sachant que tous les outils ne sont pas certifiables par l'OJD). Je signale aussi au passage la solution Nedstats, pas très connue en France (à tort, car elle est sans doute plus avancée et plus complète que les solutions françaises).
-
Je suis plutôt d'accord avec tout ce qui vient d'être dit... Entre phpBB et IPB, il n'y a pas photo : mieux vaut casser sa tirelire et passer à IPB. Entre vBulletin et IPB, c'est plus serré. Honnêtement, les deux solutions se valent. C'est vrai que je trouve vBulletin plus complet, et que dans certains secteurs, je préfère vBulletin. Mais le problème, c'est que je connais IPB plus à fond, et qu'au quotidien, ça joue aussi. Donc mes forums sont des IPB (j'en ai déjà trois, sans compter la fréquentation du Hub sur lequel j'ai appris à administrer les forums IPB). Et même si je sais que certains trucs seraient mieux avec vBulletin, je suis content d'IPB, et je me console avec les plus qu'il n'y a pas chez vBulletin. Comme le support Invision, très très efficace.
-
"Duplicate content" ou "Pages similaires"
Cariboo a répondu à campagne - Forum : Techniques de Référencement
campagne, tu as raison de faire la distinction : le problème des pages similaires et le duplicate content à cause de deux url qui pointent vers la même chose, c'est bien deux choses différentes... Par contre, je rappelle au passage que les pages "similaires" posent un autre problème, pas toujours bien connu et identifié, c'est au niveau du crawl... Il faut rappeler à ce stade qu'une Url peut être connue de Google, et peut même apparaître dans l'index, sans avoir été entièrement crawlée ! Le résultat est une entrée sous la forme d'une url brute sans description... Ces urls souvent ne sont visibles que si on affiche les pages ignorées (filter=0). Depuis deux ans, la technique de crawl de Google est de ne prendre que les url qu'il estime "utile". Quand on a des pages de catalogue, des pages d'annuaires, ou de manière générale des pages dynamiques construites de manière identique, on peut se retrouver fréquemment avec des pages soit franchement pas crawlées du tout (site jugé peu important, avec des pages avec un faible pagerank notamment), soit crawlées beaucoup moins souvent (ce qui fait qu'on se retrouve régulièrement avec des pages sans description)... Le résultat, le plus souvent, c'est qu'au mieux un prototype de la page est indexé, le reste apparait clusterisé (résultat ignoré). Pourquoi ? Parce que Google détecte des centaines, des milliers de pages jugées similaires, et qu'il estime que cela ne sert à rien de stocker des milliers de pages contenant la même information. Et que c'est encore moins utile de les montrer dans l'index. Ces "catalogues", à terme, ne sont plus crawlés que de manière épisodique, et/ou partiellement. Comment éviter cela : faire des pages moins mécaniques, et penser à rajouter du contenu texte dans chaque page... Nota Bene : la technique de crawl vient encore de changer avec BigDaddy, il sera intéressant de voir si cela change à nouveau. -
Je pense (en fait, j'en suis sûr) que pour qu'un forum décolle, il faut atteindre une certaine taille critique... Si on part de rien, il faut déja créer un forum autour d'une communauté de gens qui se connaissent en dehors du forum. C'est un peu ce qui a permis le lancement du Hub au tout début. S'il n'y a pas de communauté, il faut une audience minimale, notamment un nombre de visiteurs uniques / jour minimal... 30 par jour, cela me parait léger pour espérer développer une communauté derrière... Je pense que le mieux est de travailler une génération de trafic sur le reste du site, et repenser au forum plus tard. Car un forum est aussi chronophage, et rapporte peu (ou beaucoup d'embêtements).
-
Je ne comprend pas la question. 1. Tu parles de trois espaces, de quatre formats, ensuite d'alternance entre deux formats ? 2. Qu'entends tu par alternance ? Changement d'annonceur d'une page à l'autre, de campagne, d'espace ???
-
Il y'a un mode Mysql dans lequel les bannières sont stockées dans la base, c'est sans doute parce que tu as choisi cette option que tu ne vois pas les bannières...
-
Une victime d'un référenceur professionnel
Cariboo a ajouté un sujet dans Techniques de Référencement
Un site d'un magazine connu et s'adressant aux étudiants faisait appel depuis des mois aux services d'une société de référencement ayant pignon sur rue. Ce prestataire a donc construit de jolies pages sat' écrites en lettres blanches sur fond blanc, avec des redirections bien "sneaky". Mais voila que ce site est depuis lundi blacklisté par Google. Plus aucune page indexée dans les pages de résultats. Bon, je ne vais pas pleurer des larmes de crocodile sur le sort de l'un de mes concurrents. Mais je m'interroge quand même sur cette situation où une entreprise arrive à faire courir des risques pareils à ses clients, des mois après la campagne de déréférencement qui a defrayé la chronique et qui a incité à la prudence bien des référenceurs pro. A mon avis, la responsabilité du référenceur est totale, car je ne doute pas un instant que la société victime de ce déréférencement avait quant à elle les moyens de comprendre les risques qu'elle prenait. Le site de la société de référencement est lui, toujours en ligne. Quand épinglera-t'on sérieusement les moutons noirs de cette profession ?