Djames-Allen Posté 15 Février 2009 Posté 15 Février 2009 Je ne t'ai pas préciser le nombres de pages car je ne suis pas fous pour aller regarder jusqu'à la page près. Ils avaient, aussi bien le deux que Facebook ou n'importe qu'elle grosse plateforme qu'on lance sur le web plus d'une centaines de pages. Il me parait évident que qu'on on veut lancer un site il faut donner du contenu à manger à GG et en plus le plus important quand on mets un site en place, il faut bien travailler sur l'aspect, le menu de navigations faire des tests ne se fait pas avec une page. Alors pou moi autant créer du contenu réel qui sera là une fois le site mis en ligne et faire ces test en même temps. Comme ça lorsqu'on propose un site aux moteurs de recherche ils auront du contenu à lire. Crois ce que tu as envie, tu es loin de la vérité cher collègue.
zapman Posté 15 Février 2009 Auteur Posté 15 Février 2009 (modifié) Crois ce que tu as envie, tu es loin de la vérité cher collègue. Si on m'avait dit plus tôt que quelqu'un sur ce forum détenait la vérité, je n'aurais pas perdu toutes ces années à faire des expériences et à élaborer des projets stupides. Modifié 16 Février 2009 par Patrick Certaines choses sont préférable à dire en MP. L'arbitrage d'un modérateur pour également être demandé.
Patrick Posté 16 Février 2009 Posté 16 Février 2009 Voilà un sujet chaud mais passionnant. Il y a quelques temps je m'étais déjà permis de démonter quelques affirmations un peu rapide de RankSpirit au sujet du DC. Je me souviens plus sur quel forum c'était et quand. Mais dès que je remets la main dessus je place un lien ici, histoire de donner du grain à moudre. C'est pareil pour l'histoire du nombre de pages d'un coup. Il y a beaucoup d'éléments qui sont ignorés semble-t'il, comme par exemple : le nombre de liens sur la page d'accueil le nombre de liens inter-page la présence d'un plan du site html la présence d'un sitemap version 0.9 la structure du site le nombre de pages par niveau la politique de liens intra niveau la politique de liens inter niveau la disponibilité des serveurs le poids des pages scripts coté client scripts coté serveur mise en forme etc. Chacun de ces éléments pouvant influencer Google (et il y en a encore beaucoup d'autres), à moins d'avoir des sites strictement identiques, hébergés sur des serveurs différents mais strictement identiques, avec des noms de domaine de même ancienneté, de même composition et de même tld (etc., etc.) les conclusions données par Zapman ne peuvent pas être qualifiées de preuves formelles. Peut-être quelles donnent une piste, mais en la matière, l'expérimentation me semble bien trop légère pour être fiable. Ceci n'engage que moi, m'est semble être partagé. ++ Patrick
Djames-Allen Posté 16 Février 2009 Posté 16 Février 2009 Désolé Zapman mais je ne détiens aucune vérité, sinon je serais devenu riche depuis belle lurette. Comme l'a dit Patrick, il y a surement plusieurs raisons si tes sites ou test ont connut la SandBox. Mais pour moi la thèse qu'il existe un filtre sur les nouveaux sites au niveau des nombres de pages, je n'y crois pas un instant... On peut débattre du pourqoui du comment pendant des heures, tu voulais des avis, je t'ai donné le mien. Pour moi ce filtre n'existe pas, et n'aurait aucune légitimitée d'exister...
zapman Posté 17 Février 2009 Auteur Posté 17 Février 2009 (modifié) les conclusions données par Zapman ne peuvent pas être qualifiées de preuves formelles. Et elles ne prétendent pas en être. C'est pourquoi j'apprécie de pouvoir discuter de mes expérimentations sur ce forum afin de savoir si d'autres webmasters ont des éléments permettant de les affiner. Tu voulais des avis, je t'ai donné le mien. Pour moi ce filtre n'existe pas, et n'aurait aucune légitimitée d'exister... Merci pour cette participation, Djames-Allen, mais sans aucun élément précis pour étayer cet avis, ça ne m'aide hélas pas beaucoup à avancer. Le référencement est un art très délicat. Personnellement, j'élabore mes idées en lisant les hypothèses et les compte-rendus d'expériences d'autres webmasters, j'expérimente ensuite ces idées en les mettant en pratique de différentes façons (car tout est toujours sujet à caution) et j'en tire des conclusions que je remet périodiquement en question (car rien n'est jamais définitif compte tenu de l'évolution de ce domaine). Tout le monde sait qu'un très grand nombre d'idées fausses sont répétées comme des leitmotivs dans le monde du référencement. Elles deviennent des vérités non parce qu'on a les a vérifiées et re-vérifiées, mais simplement parce qu'on les répète à n'en plus finir. Fonctionner sur ces idées sans chercher à les remettre en question conduit à des impasses dont on ne peut plus sortir. C'est pourquoi je ne sais que faire d'une affirmation ou d'un avis qui ne s'appuie pas sur un minimum de tests qui doivent être exposés afin de pouvoir être vérifiés. Comme tout protocole, mes propres protocoles de test sont évidemment discutables mais ils ont le mérite d'exister et je tente toujours, avec le maximum de transparence, d'expliquer comment j'ai procédé et sur quelle base j'ai fondé mes affirmations ou mes convictions. Dans ce post, je partage une expérience qui vaut ce qu'elle vaut et j'expose les bases qui ont nourri mes conclusions. Le problème vient sans doute du fait que mes convictions sur le Duplicate Content sont issues de plusieurs années de recherche et d'expérimentation sur ce sujet et que le fait d'exposer succinctement mes bases ne peut pas suffire pour que chacun reconstitue mon cheminement de pensée et adhère à mes raisonnements. Qui plus est, mes conclusions sur le Duplicate Content vont à l'encontre de pas mal d'idées reçues et ont pas conséquent une furieuse tendance à déclencher la polémique. Mais encore une fois, le Duplicate Content n'est absolument pas le sujet de ce post et j'aurais préféré qu'il n'en prenne pas toute la place. Mon expérience est un succès. Ca n'est pas un échec dont j'aurais souhaité qu'on explique la cause. Quelle que soit l'influence que le Duplicate Content ait pu avoir sur cette expérience, il n'en a pas compromis la réussite. Personnellement, mon principal intérêt ne consiste donc pas à approfondir ce sujet (même si je comprend tout à fait qu'il vous passionne aussi). Le centre de mon intérêt concerne le nombre de pages publiées lors de la mise en ligne, qui a eu pour moi (dans le cadre que je défini dans mon premier message) un impact évident sur la vitesse de progression de mes sites dans les classements de Google et c'est de ce sujet dont j'aurais bien aimé qu'on discute. A part l'expérience de Dadou qui m'a fourni des éléments assez précis pour alimenter ma réflexion, je n'ai pas réussi à retirer grand chose de consistant de ce partage malgré les deux pages qui alimentent à présent ce post et qui noient un peu le poisson. Il est possible que le fait de mettre brutalement en ligne plus de 50 pages riches en contenu soit une expérience suffisamment rare pour que presque personne ne puisse apporter de témoignage précis sur la question. Si c'est le cas, (et c'est ce que je commence à penser) mon expérience n'a finalement que peu d'intérêt pour vous tous. Mais si d'autres webmasters ont aussi eu ce type d'expérience et qu'ils en ont gardé des éléments précis pour pouvoir argumenter, de grâce, faites-vous connaître ! - Le facteur déterminant est-il vraiment le nombre de pages ou est-il le nombre total de mots inclus dans les pages (la plupart de mes pages ont un gros contenu) ? Ou est-il le nombre total de "liens sortants" contenus dans les pages, ou est-il le nombre total de "liens internes" du site (menus). Quelqu'un a-t-il déjà mis en ligne un annuaire comportant un grand nombre de pages dès sa publication ? Sa progression dans les résultats en a-t-elle été influencée ? - Je commence à me dire que le filtre particulier qui freine la croissance de mes sites de plus de 50 pages est en rapport avec la lutte contre les pages satellites (ce qui militerait pour l'hypothèse que le nombre de liens internes est le facteur déterminant). Quelqu'un a-t-il une expérience sur ce sujet ? 1- le nombre de liens sur la page d'accueil 2- le nombre de liens inter-page 3- la présence d'un plan du site html 4- la présence d'un sitemap version 0.9 5- la structure du site 6- le nombre de pages par niveau 7- la politique de liens intra niveau 8- la politique de liens inter niveau 9- la disponibilité des serveurs 10- le poids des pages 11- scripts coté client 12- scripts coté serveur 13- mise en forme 1, 2, 3 : Par l'intermédiaire des menus (en pur CSS, sans flash ni javascript), chaque page comporte des liens en dur vers l'ensemble des autres pages du site. On peut donc considérer que chaque page comporte un plan de site intégré. La page d'accueil est une page comme les autres. 4 : il n'y en a pas. Je n'ai pas réussi à en trouver l'utilité pour des sites qui comportent des menus tels que décrits ci-dessus 5 : pur HTML. Le javascript n'est utilisé que pour des agréments mineurs de présentation. Le site fonctionne parfaitement avec le javascript désactivé. Il n'y a pas une ligne de Flash. 6, 7, 8 : il n'y a qu'un seul niveau par site 9 : excellente. Compte tenu de sa fréquentation globale, WikiBis est en hébergement professionnel avec d'excellentes performances. Dans sa fréquentation actuelle, cet hébergement est encore largement surdimensionné. D'autres sites du réseau sont hébergés dans des formules économiques. Pour le moment, ça n'a pas eu d'influence identifiable sur leurs performances. 10 : le poids des pages me semble "raisonnable" : 50 à 100ko par page environ (hors images). Ca serait mieux si les pages étaient plus petites, mais la simple présence du menu consomme déjà 30 à 60 ko, compte tenu du nombre important de pages pour la plupart des sites. La taille de mes pages est donc en rapport direct avec le nombre total de pages du site et ce point méritait donc tout à fait d'être examiné. Mais dans la mesure où je dépasse rarement 100 ko, je pense pouvoir négliger ce facteur. 11 : voir points 1, 2, 3, 4, 5 12 : il n'y a quasiment aucun script côté serveur. 13 : le validateur du W3C me fatigue un peu en raison de sa rigidité et de son inadaptation aux réalités des navigateurs actuels, mais ça ne m'empêche pas de surveiller la syntaxe de mes pages de très prés. Toutes les pages sont conçues d'une façon strictement identique. Par rapport à ma question, je pense donc pouvoir négliger ce facteur. Je rediscuterais avec plaisir et passion du Duplicate Content dans un autre post si vous le souhaitez Modifié 17 Février 2009 par zapman
Patrick Posté 17 Février 2009 Posté 17 Février 2009 Tout le monde sait qu'un très grand nombre d'idées fausses sont répétées comme des leitmotivs dans le monde du référencement. Elles deviennent des vérités non parce qu'on a les a vérifiées et re-vérifiées, mais simplement parce qu'on les répète à n'en plus finir. Fonctionner sur ces idées sans chercher à les remettre en question conduit à des impasses dont on ne peut plus sortir. Tu as parfaitement raison. D'où l'importance d'expérimentations comme les tiennes et encore plus le partage de tes résultats. Pour cela nous pouvons que tous te remercier. Mon expérience est un succès. Ca n'est pas un échec dont j'aurais souhaité qu'on explique la cause. Sans aucun doute. Peut-être des conclusions mal présentés tout simplement ... - Le facteur déterminant est-il vraiment le nombre de pages ou est-il le nombre total de mots inclus dans les pages (la plupart de mes pages ont un gros contenu) ? Ou est-il le nombre total de "liens sortants" contenus dans les pages, ou est-il le nombre total de "liens internes" du site (menus). Quelqu'un a-t-il déjà mis en ligne un annuaire comportant un grand nombre de pages dès sa publication ? Sa progression dans les résultats en a-t-elle été influencée ?- Je commence à me dire que le filtre particulier qui freine la croissance de mes sites de plus de 50 pages est en rapport avec la lutte contre les pages satellites (ce qui militerait pour l'hypothèse que le nombre de liens internes est le facteur déterminant). Quelqu'un a-t-il une expérience sur ce sujet ? Présenté comme cela c'est parfait et constructif à mon avis. ... La page d'accueil est une page comme les autres Pas d'accord ! Peut-être au niveau construction et autre. Mais la différence vient des liens. Généralement toutes les pages d'un site ont un lien vers la page d'accueil, la page d'accueil n'a pas toujours de lien vers toutes les pages du site, les liens externes pointent en grande majorité sur la page page d'accueil. La page d'accueil est également accessible depuis plusieurs URL contrairement aux autres pages. Bref tout ceci contribue à faire de la page d'accueil, une page différente des autres. C'est uniquement sur ce point que je remets en question tes conclusions. Tu te permets de négliger certains facteurs (le pourquoi du comment te regardes) pour aboutir à tes conclusions. C'est dommage car cela rend celles-ci très discutables alors qu'elles sont certainement pertinentes. Peut-être qu'il faudrait que tu prennes plus de précautions et que tu renouvèles une partie de tes expérimentations en modifiant (par exemple) fortement les facteurs que je te suggères dans mon post précédent. Si les conclusions restent les mêmes tu donneras plus de poids à tes résultats. Si tes conclusions diffèrent cela sera la preuve que tes expérimentations ne sont pas assez poussées pour donner des conclusions fiables. Comme tu le dis si bien, le monde du référencement c'est construit autour de "on dit" et autre bruits de couloir. Tes expérimentations peuvent aider à recadrer tout ça, mais pour cela il faut qu'elles soient "défendables à tout point de vue" et surtout tu ne peux pas te permettre de négliger certains facteurs sans avoir déterminé auparavant avec certitudes qu'ils n'ont aucune influence sur tes expérimentation en cours. Sinon tu ne fais qu'ajouter une pierre à l'édifice des "on dit" que tu souhaites, semble t-il vouloir combattre ! Bon sur ce je vais bosser un peu ... ++ Patrick
Leonick Posté 17 Février 2009 Posté 17 Février 2009 Mais encore une fois, le Duplicate Content n'est absolument pas le sujet de ce post et j'aurais préféré qu'il n'en prenne pas toute la place.Il est possible que le fait de mettre brutalement en ligne plus de 50 pages riches en contenu soit une expérience suffisamment rare pour que presque personne ne puisse apporter de témoignage précis sur la question. ben c'est surtout que le contenu (reformulé soit) on le trouve sur wikipedia.Pour la taille du menu, c'est énorme : 500 liens sur la page donc le duplicate a introduit un fort biais dans ton test
Ajax Posté 17 Février 2009 Posté 17 Février 2009 Ces délais ne sont donc valables que pour des sites ne faisant PAS l'objet d'une quelconque promotion et que l'on laisse "murir" de façon naturelle. Moi un site qui ne fait l'objet d'aucune promotion et que je laisse "mûrir" de façon naturelle, il reste en sandbox 5 ans et plus, et ce avec 3 ou 300 pages . Etre présent naturellement sur des requêtes sans un travail de référencement naturel et / ou de promotion diverse du site (publicité, buzz...) relève désormais de l'utopie : ce n'est donc pas un effet "sandbox" ou "pénalité", c'est simplement un effet "absence de promotion". Après les exemples, on leur fait dire ce que l'on veut, j'ai par exemple 3 sites (je peux donner les urls par MP) : - un site de bijoux créé il y a 8 ans, avec 10 pages et sans aucune promotion : eh bien, il fait toujours 2 visites / jour, et pourtant je l'ai bien laissé "mûrir"... - un site d'assurance créé il y a 18 mois, avec au moins 150 pages à la naissance et un référencement naturel classique : plusieurs centaines de visiteurs / jours 3 mois après sa création. - mon annuaire d'assurance créé il y a 7 mois avec au moins 100 pages à la "naissance" : pas pénalisé pour l'instant, une progression lente mais stable et pourtant c'est un annuaire... Que retirer de ces exemples ? Pas grand chose à part qu'il y a trop de facteurs inconnus entrant en compte dans la mise en place des pénalités Google pour en tirer des conclusions fiables...
zapman Posté 17 Février 2009 Auteur Posté 17 Février 2009 La page d'accueil est une page comme les autres. Je parlais de la conception de mes sites. Leurs pages d'accueil sont des pages exactement comme les autres au niveau de la conception. Elles ne bénéficient pas de d'avantage de liens que les autres, puisque par l'intermédiaire du menu, toutes les pages pointent vers toutes les pages. A terme, elles bénéficieront peut-être d'un peu plus de liens entrant, mais rien de bien spectaculaire : les liens naturels qui se créent vers un site pointent la plupart du temps vers des pages autres que la page d'index. Moi un site qui ne fait l'objet d'aucune promotion et que je laisse "mûrir" de façon naturelle, il reste en sandbox 5 ans et plus, et ce avec 3 ou 300 pages Là, c'est peut-être pas de la sandbox. Mais c'est vrai que pour WikiBis, j'ai quand même fait l'effort de mettre des liens en provenance de 4 de mes sites, histoire de lancer la machine. Ca apporte des visiteurs et c'est déjà une forme de promotion, j'avoue. ... j'ai par exemple 3 sites (je peux donner les urls par MP)... Ca m'intéresse bien, surtout pour les deux derniers qui sont récents et qui semblent rentrer pile poil dans le cadre de mes expériences. Que retirer de ces exemples ? Pas grand chose à part qu'il y a trop de facteurs inconnus entrant en compte dans la mise en place des pénalités Google pour en tirer des conclusions fiables... Damned !! C'est compter sans mon âme vaillante et indomptable. Je ne m'avouerais jamais vaincu et je combattrais la sombre obscurité de l'ignorance jusqu'à mon dernier souffle, dussais-je en mourir à cause que ça serait mon dernier souffle !
Patrick Posté 17 Février 2009 Posté 17 Février 2009 Les sites comportant plus de 500 pages sont pénalisés pour une période de 1 an Je parlais de la conception de mes sites. Leurs pages d'accueil sont des pages exactement comme les autres au niveau de la conception. Elles ne bénéficient pas de d'avantage de liens que les autres, puisque par l'intermédiaire du menu, toutes les pages pointent vers toutes les pages. Un site de plus de 500 pages, avec donc 500 liens par pages (si je comprends bien ce que tu as écrit) botfriendly puisque pas de javascript (voir ton post plus haut) dis donc ça ne serais pas l'excès de lien qui pourrais-être à l'origine de la pénalité et non pas les "500 pages d'un coup" car Google précise très clairement dans ses recommandations pour webmasters que plus de 100 liens par page est un facteur pouvant pénaliser le positionnement d'un site ? Au vu de tout ceci, il est claire que toutes tes conclusions à ce sujet tombent à l'eau ! Comment savoir que la pénalisation appliquée est due au nombre de liens par pages (information validée par Google) plus qu'au nombre important de page (information supposée par toi et non validée par Google) mises en ligne en 1 seule fois ? Il me semble que tu viens de te couper l'herbe sous le pieds ! Mais peut-être que je me trompe ? ++ Patrick
Ajax Posté 17 Février 2009 Posté 17 Février 2009 Mais c'est vrai que pour WikiBis, j'ai quand même fait l'effort de mettre des liens en provenance de 4 de mes sites, histoire de lancer la machine. Ca apporte des visiteurs et c'est déjà une forme de promotion, j'avoue. OK, donc il y a déjà commencement de promotion. Et combien de liens au total ? Damned !! C'est compter sans mon âme vaillante et indomptable. Je ne m'avouerais jamais vaincu et je combattrais la sombre obscurité de l'ignorance jusqu'à mon dernier souffle, dussais-je en mourir à cause que ça serait mon dernier souffle ! Je n'en doute pas, et c'est bien sympa de nous transmettre le fruit de tes expériences Pour les url's, je te les envoie en mp
Dudu Posté 17 Février 2009 Posté 17 Février 2009 Salut Après tout, on n'est plus à un HS près. Alors chacun mon tour. le validateur du W3C me fatigue un peu en raison de [...] son inadaptation aux réalités des navigateurs actuels Autant le référencement, ce n'est pas mon créneau. Mais ce dont tu parles, ça l'est.Et j'aimerais bien discuter avec toi de cette affirmation: j'ai toujours validé mes sites (validation + conformité) et n'ai jamais eu le moindre souci d'"inadaptation aux réalités des navigateurs". Si je puis me permettre, je pense que sur ce point précis tu as affaire à un problème qui se situe entre le clavier et la chaise
zapman Posté 18 Février 2009 Auteur Posté 18 Février 2009 (modifié) ...dis donc ça ne serais pas l'excès de lien qui pourrais-être à l'origine de la pénalité et non pas les "500 pages d'un coup" car Google précise très clairement dans ses recommandations pour webmasters que plus de 100 liens par page est un facteur pouvant pénaliser le positionnement d'un site ? Google n'a pas toujours été très cohérent dans ses déclarations sur le sujet : http://googleguy-fr.blogspot.com/2004/08/q...-100-liens.html Cela dit, c'est une piste à suivre, surtout après l'exemple de Didou qui comportait finalement plus de 100 pages lors de sa mise en ligne (après recalcul) et qui n'a pas été pénalisé... mais qui comportait un bon nombre de pages qui n'étaient liées que par une seule page (j'espère que je me fais comprendre). OK, donc il y a déjà commencement de promotion. Et combien de liens au total ? J'ai mis un lien en footer sur 4 sites qui totalisent environ 600 pages et 2600 visiteurs/jour à eux 4. D'après ce que j'ai pu voir, ça n'est pas tant le nombre de liens que la fréqentation qu'ils apportent qui semblent influencer Google. Ces liens apportent à Wikibis environ 10 visiteurs par jour (c'est une petite pub toute bête qui n'est pas très racoleuse). ... j'aimerais bien discuter avec toi de cette affirmation: j'ai toujours validé mes sites (validation + conformité) et n'ai jamais eu le moindre souci d'"inadaptation aux réalités des navigateurs". Ca ne fait évidemment pas de mal de passer de façon impeccable le test du W3C. Je voulais simplement dire que je considère les standards du Web comme un point technique important, mais pas comme une religion. Il peut m'arriver de négliger certains avertissements du validateur quand j'ai la conviction qu'il est un peu plus royaliste que le Roi (je pense par exemple à la distinction <b> versus <strong> qui n'est qu'un coupage de cheveux en quatre ou encore de la façon de rédiger les liens. Le validateur du W3C suit à lettre les spécifications du W3C, y compris dans leurs aspects parfois un peu délirant, du genre "c'est nous qui décidons comment le Web fonctionne". Mais.... houlà !!!!!... là je prend un gros risque de réveiller une autre polémique !!! S'il y a un ayatollah des standards qui rode dans le coin, il va me scalper la peau de la tête là où y'a des cheveux ! Modifié 18 Février 2009 par zapman
Leonick Posté 18 Février 2009 Posté 18 Février 2009 ou encore de la façon de rédiger les liens.pour les mal voyants, avoir 10 liens avec la même ancre "lire la suite" c'est la folie à suivre dans un navigateur vocal, de la même manière la façon d'ouvrir un lien sur une page : click roulette souris ça ouvre une autre fenêtre, pas besoin de blank et inversement, quand je suis sur un site de e-commerce, j'aiemrais pouvoir ouvrir un onglet différent pour plusieurs produits, mais ce n'est pas possible car c'est du js et le click roulette ne fonctionne pas Le validateur du W3C suit à lettre les spécifications du W3C,c'est aussi son rôle
Dudu Posté 18 Février 2009 Posté 18 Février 2009 je pense par exemple à la distinction <b> versus <strong> qui n'est qu'un coupage de cheveux en quatre ou encore de la façon de rédiger les liens. <b> versus <strong>: c'est quand même simple, <b> est tout aussi valide que <strong>, problème résolu. la façon de rédiger les liens, ce n'est qu'une question de bon sens: un lien avec un anchor text ciblé est toujours meilleur qu'un "cliquez ici". Le validateur du W3C suit à lettre les spécifications du W3C, y compris dans leurs aspects parfois un peu délirant, du genre "c'est nous qui décidons comment le Web fonctionne". Thanks for pointing that out, Captain Obvious... Le w3c est une institution qui a justement pour rôle décrire des spécifications pour régir le fonctionnement du web. Son directeur est d'ailleurs l'inventeur du web (ni plus ni moins). Donc oui, désolé si ça te choque, mais leur attitude est normale puisqu'ils sont là pour ça, par essence. C'est mieux quand c'est Google qui dit comment il faut écrire les pages ? Ce topic prouve que non, on dirait Mais.... houlà !!!!!... là je prend un gros risque de réveiller une autre polémique !!! S'il y a un ayatollah des standards qui rode dans le coin, il va me scalper la peau de la tête là où y'a des cheveux ! Tu sais, on peut aussi avoir un débat sérieux entre adultes responsables, plutôt que de s'envoyer à la tête des insultes d'école maternelle
azur Posté 18 Février 2009 Posté 18 Février 2009 Pourquoi Google pénaliserait pour 6 mois un nouveau site avec plus de 50 pages de contenu unique ? Google qui ne jure que par le contenu.
zapman Posté 18 Février 2009 Auteur Posté 18 Février 2009 (modifié) Le w3c est une institution qui a justement pour rôle décrire des spécifications pour régir le fonctionnement du web. Son directeur est d'ailleurs l'inventeur du web (ni plus ni moins).Donc oui, désolé si ça te choque, mais leur attitude est normal puisqu'ils sont là pour ça, par essence. C'est un très long débat qui pourrait s'engager là, Dudu (et concernant le scalp de la peau de la tête, c'était une tentative d'humour.... bon... tant pis ) Si on cherche des équivalences dans la vie de tous les jours, le W3C joue un peu le rôle du legislatif (notons quand même que le W3C s'est auto-proclamé legislateur du Web, bon... il en fallait un et ça arrange bien tout le monde, mais quand même, ça fait un peu bizarre). Le problème, c'est que le Web n'est pas équipé de la moindre instance exécutive (à part Google en raison de sa position quasi-monopolistique, et Microsoft, en raison de sa position historique et du taux de pénétration d'Explorer, et depuis peu Mozilla). Le W3C semble parfois s'imaginer qu'il dispose de tout un exécutif qui s'occupe de faire appliquer ses "lois" et nous pond de temps en temps des choses qui n'intéressent pas les utilisateurs et/ou les développeurs et qui, du coup, restent lettre morte puisque rien n'oblige tout ce beau monde à l'utiliser. Ce ne sont pas des lois, ce sont juste des suggestions ! Le XHTML est l'exemple type de ce dont je parle : c'était voué à l'échec dès le départ parce que ça ne part pas de l'intérêt des utilisateurs mais d'une vision complètement théorique et irréaliste du Web et de l'influence que le W3C peut avoir dessus. Le XHTML n'apporte strictement aucun avantages à ses utilisateurs et les oblige à changer d'habitude. Comment ça aurait pu marcher ? C'est un délire total de théoricien qui a fichu une énorme pagaille pour un résultat nul. Quel gachis ! Que d'énergie perdue ! Tim Berners-Lee, président du W3C, est l'inventeur du HTML (avec Robert Cailliau), OK, bon... ça intéresse qui ? Ca lui donne sans aucun doute une certaine légitimité, mais ça ne fait pas de lui le maître tout puissant du Web. C'est peut-être bien, peut-être pas. En attendant, plus de 80% des webmasters sont des bricoleurs qui continuent à bidouiller des tableaux et qui se moquent éperdument de Tim Berners-Lee. C'est ça la réalité, et c'est ça qu'il faut savoir accepter et gérer pour parvenir à faire évoluer le Web. Par exemple : POURQUOI la plupart des utilisateurs bloquent sur les CSS (je ne parle pas de ceux qu'on croisent dans nos forums, je parle du plus grand nombre, ceux qui feront un ou deux sites Web dans leur vie mais qui représentent, tous ensembles, l'immense majorité des utilisateurs) ? C'est ça qu'il faut comprendre ! Et la raison est simple : pour eux, les tableaux et les balise HTML sont plus simples à utiliser. Alors plutôt que de nous faire perdre 10 ans avec le XHTML, j'aurais bien aimé que le W3C travaille sur une norme dédiée à la mise en page, une norme SIMPLE, facile à utiliser et qui permette le développement de logiciels WYSIWYG, parce ce que c'est ça que demande l'immense majorité des utilisateurs. Apparemment, le W3C commence à prendre doucement conscience de ses limites et ré-oriente sa stratégie en tenant un peu mieux compte des réalités. Ca ma plaît bien. En attendant, je ne me sens pas obligé d'appliquer les normes "par principe". J'applique les normes qui sont indispensables au fonctionnement et à l'accessibilité (au sens très complet) de mes sites en m'intéressant de très prés à la façon dont Google gère ces règles. Parce qu'au fond, s'il y a un Boss, aujourd'hui, c'est Google, pas le W3C. Ca ne me plaît pas plus que ça, mais c'est ça, la réalité. Voilà ma position en résumé. Pourquoi Google pénaliserait pour 6 mois un nouveau site avec plus de 50 pages de contenu unique ? Google qui ne jure que par le contenu. Google pénalise tout les sites qui lui semblent suspects et ne fait pas toujours dans la demi-mesure. Ca n'est pas plus mal comme ça. La lutte contre le spam est une guérilla très difficile mais absolument nécessaire. Quel est exactement le point sensible que j'ai chatouillé, est-il vraiment en rapport avec le nombre de pages, c'est ce que j'essaye de comprendre. Modifié 18 Février 2009 par zapman
Leonick Posté 18 Février 2009 Posté 18 Février 2009 POURQUOI ces gens là bloquent sur les CSS ? C'est ça qu'il faut comprendre ! Et la raison est simple : pour eux, les tableaux et les balise HTML sont plus simples à utiliser.parce que les gens veulent faire de moins en moins d'effort et privilégient la forme au fond. Le css n'est pas si compliqué que cela à utiliser et ça permet une souplesse à laquelle la mise en page en tableau ne pourra jamais arriver.Parce qu'une bonne mise en page en css externe, ça permet d'alléger le contenu non textuel d'un document, et ça, avec le développement des accès web sur réseau GSM c'est quand même appréciable. Et puis, surtout, pour le développeur, une mise en page avec css externe, permet de modifier la mise en page d'un site en 30". On veut faire de l'événementiel ? pas de problème, on change la couleur de fond, l'image du bandeau dans le css et ça le change partout sur le site. On n'est pas obligé de passer par 20 templates à modifier
zapman Posté 18 Février 2009 Auteur Posté 18 Février 2009 (modifié) parce que les gens veulent faire de moins en moins d'effort et privilégient la forme au fond. Le css n'est pas si compliqué que cela à utiliser et ça permet une souplesse à laquelle la mise en page en tableau ne pourra jamais arriver.Parce qu'une bonne mise en page en css externe, ça permet d'alléger le contenu non textuel d'un document, et ça, avec le développement des accès web sur réseau GSM c'est quand même appréciable. Et puis, surtout, pour le développeur, une mise en page avec css externe, permet de modifier la mise en page d'un site en 30". On veut faire de l'événementiel ? pas de problème, on change la couleur de fond, l'image du bandeau dans le css et ça le change partout sur le site. On n'est pas obligé de passer par 20 templates à modifier OK, les gens ne veulent pas faire d'effort. Peut-être aussi, qu'ils n'ont pas le temps de faire des efforts, peut-être que ça n'a aucun intérêt pour eux de faire des efforts, compte tenu des objectifs qu'ils poursuivent en créant leur site. Qu'est-ce que ça change ? Les gens ne veulent pas faire d'effort, ils veulent des logiciels faciles à utiliser, ils veulent des principes intuitifs, ils veulent un truc qui FONCTIONNE en quelques clics de souris. Ils ne veulent pas s'immerger la tête dans un code qui ressemble à du latin, ils ne veulent pas passer des heures à chercher où se cache ce fichu bug qui fait que le site fonctionne sur Explorer et pas sur Firefox ou vice-versa. Ils ne veulent pas avoir besoin de 2 ans d'expérience pour réussir, enfin, à sortir leur site qui n'est destiné qu'à leurs amis ou à leur famille. Ce sont CES GENS LA qui font le Web d'aujourd'hui, pas nous. C'est pour eux qu'il faudrait bosser un peu, parce que pour le moment, ils sont salement laissés en plan. Ils se rabattent sur des blogs, parce que ça, au moins, c'est simple. Et puis, bien souvent, ils voudraient évoluer vers quelque chose d'un peu plus personnalisé. Et CRAC, ça coince. Alors ou ils renoncent, ou ils mettent les mains dans le camboui et décident de divorcer d'avec leur conjoint pour avoir un peu plus de temps libre à consacrer à leur objectif Bref, le monde est cruel pour eux. Et le Web traîne la patte parce ce qu'on ne s'attaque pas au vrai besoin. Modifié 18 Février 2009 par zapman
captain_torche Posté 18 Février 2009 Posté 18 Février 2009 Alors selon toi, on devrait niveller le développement web par le bas ? Le boulot du W3c est d'instaurer des règles, que les navigateurs doivent suivre. Certains d'entre nous ont connu une époque ou le développement de sites était particulièrement chaotique, parce que les deux navigateurs concurrents (Netscape et IE) n'utilisaient pas de norme commune. C'est l'époque du "site optimisé pour internet explorer en 800x600", que je ne regrette pas du tout (A ce sujet, je te recommande la lecture de pourquoi les standards du W3C ?, sur OpenWeb) De nos jours, les navigateurs suivent tous (plus ou moins) les recommandations du W3C (car il ne s'agit que de recommandations). Chacun permet une certaine souplesse dans l'écriture des pages : balises mal imbriquées, non fermées. Ce comportement des navigateurs peut malheureusement empêcher une évolution saine (à ce sujet, lire navigateurs indulgents : cap danger !, sur Pompage) Pour finir, les "débutants du web" n'ont, contrairement à ce que tu sembles penser, strictement rien à fiche du HTML. Eux, ce qu'ils veulent, c'est présenter rapidement un contenu. Pour ce faire, ils vont utiliser un système de blog, ou un CMS. Qu'on me montre un seul jeune, non-intéressé par le HTML, qui fasse son blog ailleurs que sur skyblog et consorts. Un intégrateur qui s'intéresse au HTML a tout intérêt à se documenter, et à améliorer ses connaissances. A ce titre, j'ai toujours orienté les débutants motivés vers le site du zéro, et ils n'ont pas eu les difficultés dont tu parles. Pour finir, je suis d'accord avec toi sur UN point : le XHTML est terriblement mal utilisé (mais il ne sert pas à rien, comme tu le sous-entends : il existe des domaines d'application où il est indispensable, et où il permet de faire plus de choses que le HTML "normal" (Je pense, entre autres, à MathMl). Mises à part ces applications, il ne sert à rien d'utiliser du XHTML (Mal utilisé, cela peut même être néfaste).
zapman Posté 18 Février 2009 Auteur Posté 18 Février 2009 (modifié) Alors selon toi, on devrait niveller le développement web par le bas ? Simplifier ne veut pas forcément dire niveler par le bas. Quand Apple a commencer à développer le Lisa, puis le Mac, la majorité des utilisateurs de PC-DOS (c'était des gens qui nous ressemblaient beaucoup) se tapaient dans le dos en rigolant et en critiquant ce "gadget" qui n'avait selon eux aucun avenir et (surtout !) qui ne permettait pas de bidouiller des lignes de code pour faire des manips de la mort qui tue. La plupart des gens n'utilisaient pas d'ordinateur parce que c'était beaucoup trop prise de tête pour eux. Le Mac a pourtant fait son chemin au point d'obliger Microsoft à réagir et à mettre au point Windows qui n'était dans sa première version qu'une pâle imitation du Mac. Le nombre d'utilisateur s'est mis à exploser, générant une demande de plus en plus importante sur le marché des logiciels. Cette demande à déclenché une offre de plus en plus abondante et de plus en plus sophistiquée. La micro-informatique a fait un bond en avant absolument fantastique GRACE à la simplification de l'interface utilisateur. Non seulement les normes actuelles du Web sont souvent non-intuitives, mais elles sont aussi conçues exactement à l'envers de ce qu'il faudrait pour pouvoir être intégrées dans un logiciel WYSIWYG. Je peux en parler, j'ai commencé à développer un logiciel de ce type et j'ai du renoncer après m'être arraché la moitié de mes cheveux (regardez ma photo, à gauche... c'est pas beau à voir, hein ?. Les blogs sont aujourd'hui la meilleure réponse à ce problème. Mais cette réponse bloque les possibilités d'évolution des utilisateurs et les mène à l'impasse. Modifié 18 Février 2009 par zapman
captain_torche Posté 18 Février 2009 Posté 18 Février 2009 On ne parle pas ici d'interface, mais bien de langage. Il existe quantité de logiciels proposant des interfaces WYSIWYG pour générer de l'HTML. Elles suffisent largement aux débutants, et à de nombreux professionnels. On ne peut pas simplifier un langage, en retirant des instructions; on en limiterait aussitôt les capacités. De plus, l'HTML est un langage relativement accessible; il est à la portée de tout le monde une fois que le concept a été compris. Ensuite, la seule différence entre "je fais une page HTML", et "Je fais une page HTML qui a de la gueule", c'est le talent. Et là, ce n'est pas quelque chose qui puisse s'apprendre.
Leonick Posté 18 Février 2009 Posté 18 Février 2009 Les blogs sont aujourd'hui la meilleure réponse à ce problème. Mais cette réponse bloque les possibilités d'évolution des utilisateurs et les mène à l'impasse.la quasi totalité des blogueurs de base ont toutes possibilités d'obtenir ce qu'elles veulent avec les scripts existants, y compris avec certains addon.Ensuite, si elles veulent quelque chose de plus personnalisé, il existe des professionnels qui pourront leur développer. Ils n'ont aucunement besoin de s'y connaitre en html, ni même en bbcode pour pouvoir créer leur contenu. Les moteurs de recherches, y compris gg, ne tiennent pas compte de la "qualité" de codage : des sites codés avec les pieds ressortent très bien dans les SERP. Alors après, si on veut se plaindre que c'est trop dur de valider W3C, hé bien on n'a qu'à pas passer son site au validateur, c'est tout.
zapman Posté 18 Février 2009 Auteur Posté 18 Février 2009 (modifié) On ne parle pas ici d'interface, mais bien de langage. Si Apple n'a pas proposé une interface pour le DOS et a éprouvé le besoin de reconçevoir un système complet, si Microsoft (qui avait pourtant commencé par développer Windows comme une interface DOS) a fini, avec XP, par reconcevoir sa base de travail, c'est parce que le langage détermine étroitement les possibilités et la puissance de l'interface. Il existe quantité de logiciels proposant des interfaces WYSIWYG pour générer de l'HTML. Elles suffisent largement aux débutants, et à de nombreux professionnels. Je n'en connais pas un seul qui pourrait convenir à tous mes amis qui me disent qu'ils voudraient se lancer (sans la moindre connaissance de base) et qui me demandent quel logiciel ils peuvent utiliser. Dreamweaver ? Ils partent en courant devant l'usine à gaz Nvu/Compozer ? C'est encore le mieux que je connaisse, mais ça bug à tour de bras et le concepteur d'origine à laissé tomber le produit. J'en ai testé près d'une dizaine. Je n'en ai pas trouvé qui s'adapte à un utilisateur novice. Ca peut faire gagner pas mal de temps à quelqu'un qui sait ce qu'est une balise HTML, mais pas à un utilisateur qui voudrait l'équivalent de "Word" pour le Web (et c'est bien là que se situe la demande). Quand à Word lui-même (puisqu'il propose un export en HTML), il est bien incapable de générer une page Web qui ait un tout petit peu de "gueule", quel que soit le talent de son utilisateur. On ne peut pas simplifier un langage, en retirant des instructions; C'est pourtant ce qu'a parfois tenté le W3C en déclarant certaines balises "obsolètes". Ca me semble en effet irréaliste. Ce qui est fait est fait et puisqu'on ne pourra pas empêcher certains utilisateurs de continuer à se servir de ces balises, les navigateurs préfèrent continuer à assurer leur compatibilité avec elles. Et puisque les navigateurs restent compatibles, de nouveaux utilisateurs se mettent à utiliser ces balises. Alors à quoi riment les recommandations du W3C (dont un immense nombre de webmasters ignorent jusqu'à l'existence) dans ce contexte ? Pour ma part, je parlais plutôt d'une norme additive qui permettrait de faire de la mise en page simplement (de façon moins extravagante que FLOAT et CLEAR) et qui ouvre la porte à une vraie gestion WYSIWYG, à un logiciel qui n'oblige pas à regarder toutes les 5 minutes le code produit pour voir s'il tient la route. De plus, l'HTML est un langage relativement accessible; il est à la portée de tout le monde une fois que le concept a été compris. Et oui, une fois qu'on a compris, tout devient simple la quasi totalité des blogueurs de base ont toutes possibilités d'obtenir ce qu'elles veulent avec les scripts existants, y compris avec certains addon.Ensuite, si elles veulent quelque chose de plus personnalisé, il existe des professionnels qui pourront leur développer. Ils n'ont aucunement besoin de s'y connaitre en html, ni même en bbcode pour pouvoir créer leur contenu. Certains blog font un travail remarquable, mais ils sont eux aussi handicapés par la conception même du langage qui rend certaines options extrêmement complexes à interfacer. A l'époque du DOS aussi, on passait beaucoup par des développeurs pour obtenir ce qu'on voulait. C'est cher, pas toujours fiable, et ça représente un énorme frein à l'évolution. Plus on démocratisera la création de sites et plus le Web évoluera vite. Modifié 18 Février 2009 par zapman
Leonick Posté 18 Février 2009 Posté 18 Février 2009 Je n'en connais pas un seul qui pourrait convenir à tous mes amis qui me disent qu'ils voudraient se lancer (sans la moindre connaissance de base) et qui me demandent quel logiciel ils peuvent utiliser.ils installent une platerforme de blog, ou, plus simplement vont sur overblog ou blogger.dont un immense nombre de webmasters ignorent jusqu'à l'existence) dans ce contexte ?sont-ce des webmasters alors ? c'est comme de comparer un conducteur de voiture et un pilote automobile.Je sais changer des ampoules et vérifier les niveaux, mais je ne veux pas m'embêter à faire la vidange, les changements de pneus, plaquettes, ... je vais donc dans un garage, c'est tout. A chacun son métier.
Sujets conseillés