Aller au contenu

Cariboo

Membre+
  • Compteur de contenus

    3 376
  • Inscrit(e) le

  • Dernière visite

Tout ce qui a été posté par Cariboo

  1. TOUS les revenus doivent être déclarés. Tu devras les mentionner sur ta déclaration de revenus. L'article 293B du CGI ne prévoit pas une exonération, mais une franchise. (Tu n'exonères pas tes clients de TVA, tu es juste dispensé de la collecter et de la reverser dans la limite d'un montant déterminé). Si tes clients sont des entreprises, tu les prives de TVA déductible, ce qui peut ne pas les arranger... La franchise de TVA est d'ailleurs optionnelle, cela peut toi aussi t'arranger de déduire ta TVA sur achats. En effet, si tu factures hors TVA et que tu achètes avec TVA, devine qui est gagnant... : le fisc ! Contrairement à une idée répandue, le problème que pose une activité réduite n'est certainement pas le fisc... Des dispositifs comme le micro BIC permettent de s'en sortir sans paperasse inutile et avec une imposition très raisonnable... Le problème, c'est l'obligation de cotiser auprès des organismes de protection sociale et là, en deça d'un certain niveau d'activité, c'est très pénalisant.
  2. Super ce lien Monique... Moi aussi le ZX81 c'est ma madeleine de Proust... enfin le modèle ZX80 pour être précis. Monté en kit, au fer à souder... Mais ce qui me rend le plus nostalgique, c'est de retrouver des modèles de micro qui marchaient avec le système d'exploitation CP/M-86, un Unix simplifié (euh...) , qui n'était pas si mal, et qui aurait sans doute changé pas mal l'histoire de l'informatique s'il n'avait pas été supplanté par MS-DOS de Microsoft, la version pourrie choisie par IBM pour ses PC. Mon premier "vrai" Micro a été une machine d'origine anglaise (j'ai oublié le nom du constructuer) sous CP/M, avec comme traitement de texte "Wordstar" (paix à son âme), la base de données dBase (requiescat in pace) et comme tableur Visicalc... Et dire qu'on trouvait cela génial à l'époque...
  3. Cela fait partie de la stratégie de communication de Google depuis des années de ne jamais avertir les webmasters des changements en cours. Cela engendre des spéculations sans fin sur le pourquoi du comment, et un bruit de fond permanent qui occulte les vraies informations. Je trouve que les effets de cette politique écornent sérieusement le capital sympathie dont bénéficiait Google chez les webmasters, mais Google ne semble pas vouloir en changer. Sur le plan du fond, je ne crois pas qu'ils puissent lâcher beaucoup d'infos sur le fonctionnement du moteur sans se mettre en danger. Sur la forme, ils pourraient au moins faire semblant de communiquer... J'attend d'avoir des certitudes pour l'affirmer haut et fort, mais Google change effectivement depuis quelques semaines ses méthodes d'indexation. Comme l'année dernière, ils effectuent probablement des changements progressifs pour lancer un nouveau truc à la rentrée (après l'IPO, parce que sinon, cela ferait désordre). Il semble que Googlebot ait du mal à indexer autant de pages qu'autrefois... Soit parce que le bot n'est pas au point (depuis avril, cela deviendrait fâcheux), soit parce qu'on lui demande d'aspirer plus de pages par unité de temps (possible). Il est possible aussi que l'on ait cherché à optimiser le crawl chez Google... C'est une technique connue lorsque l'on travaille sur un index ouvert : comme le travail de mise à jour de l'index n'est jamais fini, on se focalise sur les "prioritaires", que l'on crawle souvent, et on délaisse les pages "non prioritaires", qui sont crawlées de façon parfois très espacées... Les critères définissant une page prioritaire ou non peuvent être nombreux : la "popularité", la fréquence de mise à jour, le "type" de page etc... peuvent être pris en compte. En ce qui concerne les "résultats complémentaires", même s'ils se multiplient apparemment, cela ne fait que mettre l'index francophone au niveau de l'index anglophone, sur lequel ces pages apparaissaient depuis un an beaucoup plus fréquemment. Il est un peu tôt pour dire si le deuxième index va prendre une importance réelle dans l'avenir. Le terme est mal choisi... "une requête très pointue" serait plus approprié. Mais pas seulement pointue, il faut apparemment en plus que la requête ne renvoie pas de réponses jugées "bonnes" par Google (tiens tiens). Si on cherche "Archispirosthreptus gigas" dans Google, cela renvoie deux pages... Mais ne renvoie pas vers l'index bis. Si on cherche "globi Norvège", cela renvoie 149 pages, et des résultats complémentaires partout... Ce truc est assez déroutant. Il semble que cela ne renvoit pas des résultats complémentaires si les pages de l'index normal sont mieux "notées" que celles de l'index supplémentaire...
  4. Désolé pour ma réponse tardive, je suis en vacances et je passe moins de temps sur le Hub ces jours ci... Googleguy avait donné quelques indications il y'a un an sur cette fonctionnalité. Les "résultats complémentaires" donnent accès à un autre index que celui utilisé normalement par le moteur. Il y'a un an, la fonctionnalité apparaissait sur quelques pages anglophones, puis la fonctionnalité est apparue également sur des pages francophones plus récemment. Il semble que l'index des pages complémentaires était un index au départ constitué pour un usage particulier : Google Answers (un service payant qui permet de poser des questions à un opérateur humain, qui cherche et donne une liste de pages en réponse). Mais aujourd'hui, cet "index bis" aurait sa propre logique. En fait, on est à peu près sur que Google est capable aujourd'hui d'indexer toutes les pages de tous les sites existants (sauf celles du web invisible). Le problème, c'est que cela prend du temps, et que cela ne sert à rien : la grande majorité des pages n'ont aucun intérêt... Il est donc probable que Google n'indexe régulièrement qu'une part restreinte du web, selon des critères particuliers. Certains ont évalué cette proportion à 75% du nombre annoncé sur la home page de Google. L'inconvénient, c'est que pour des requêtes tordues, dont la réponse figure sur trois pages sur tous les sites existants, les chances d'en avoir indexé zéro sont grandes. D'où l'intérêt de faire appel à un index plus complet de temps en temps, quand le nombre de pages retournées est proche ou égal à zéro , qui comporte : - des pages indexées précédemment, mais qui n'ont pas été indexées récemment(pb technique et/ou indexation partielle) - des pages non reprises par Google dans son index général (pour des raisons que pour l'instant personne ne connait) Le mecanisme qui fait apparaître ces "résultats complémentaires" sur certaines pages et pas d'autres, sur certaines requêtes et pas d'autres est encore inconnu. Il est clair que cette fonctionnalité est encore expérimentale. Elle était encore décrite comme telle par les gens de Google en avril 2004.
  5. Il me semble effectivement que, upgrade ou pas, la seule solution est d'acheter une version de XP Pro complète. Un truc important à savoir : l'upgrade de XP familial à XP pro se fait sans problème... à condition de disposer d'une version familiale "propre". S'il manque des dll, ou si la base de registre à été bidouillée ... plof ! L'install plante, avec des conséquences parfois fatales... On rapporte pas mal de problèmes avec les mises à jour XP familial à XP pro. C'est étonnant parce que les deux versions sont très, très proches. La plupart des problèmes proviennent de versions corrompues du système : il est sage de le faire dès la première utilisation de XP familial, ou de procéder à une réinstall complète du système d'origine avant de procéder à une mise à jour. En tout cas, avec cette précaution, j'ai eu l'occasion de le faire plusieurs fois, et je n'ai jamais eu de problèmes.
  6. Vérifie bien que tu as la librairie GD correctement installée sur ton hébergement. Vérifie que tu n'utilises pas le format gif, mais png (la version installée couramment chez OVH ne supporte pas le format gif). Profites en pour vérifier que freefont est installée, parce que jpgraph sans freefont, c'est dommage.
  7. Je précise avant que quelqu'un pose la question : CPA = coût par action. J'aime pas cet acronyme, car la notion qu'il recouvre est vraiment fluctuante. Quant une régie me parle de CPA, je leur demande d'être plus explicite, parce qu'il y'a toujours une appellation plus précise derrière.
  8. Bonjour beubeu, et bienvenue sur ce forum J'ai déplacé ton post pour en faire un fil à part entière, car on sortait un peu du sujet abordé dans le fil précédent. En effet tu poses une question intéressante, à laquelle il n'y a pas de réponse claire à donner : pas de texte précis sur la question, et à ma connaissance, zéro jurisprudence. La solution peut se trouver dans les habitudes de la presse "papier"... Les magazines et les quotidiens pratiquent régulièrement les "amorces d'articles" à la une. Dans la plupart des cas, il n'est fait nulle mention des auteurs et encore moins des sources... Certains quotidiens citent auteurs et sources quand l'amorce dépasse la simple mention d'un titre et d'une phrase d'accroche, pour donner le début de l'article avant d'indiquer "la suite en page 24..." Ce sont les usages consacrés, et à mon avis tu ne cours pas grand risque à suivre les mêmes usages sur un site web. Ceci dit, si ton site reprend systématiquement des articles d'autres auteurs, il peut être de bon aloi de citer l'origine dès la home page. Je pense que cela sera apprécié par les auteurs...
  9. Et bien cela dépend... Cela dépend de la marge brute d'abord... C'est plus facile de donner un gros pourcentage sur le CA quand le produit est revendu beaucoup plus cher qu'il est acheté. Cela dépend de la nature du produit ensuite : s'il y'a de la valeur ajoutée derrière la vente, le rôle du webmaster (son importance stratégique) est moindre... Cela dépend enfin du degré d'implication du webmaster dans le projet : - s'il est à l'initiative, ou non. - si le projet ne pouvait pas se faire sans lui Je doute que tu puisses avoir des références utiles en fait : cela se négocie au cas par cas...
  10. Ce phénomène montre que google connait les url, mais n'a pas pu les crawler correctement ... A première vue, tu as un peu trop de javascript dans ta page, et le robot de Google a du mal à voir le contenu de ce genre de page, et en plus a probablement du mal à suivre les liens. Voila ce que voit Lynx sur une de tes pages internes mis à jour le .. Mai 2004 : Release ! En accord avec notre nouvelle charte graphique, notre site Web a été mis à jour pour décrire les différentes prestations et les produits associés de KopperTi. - Test - Test C'est peu... En plus les deux liens contiennent un id de session...
  11. Ca ne veut rien dire du tout. Ou plutôt que Google n'utilise pas Lynx, ni poodle, mais son propre "browser". L'agent de Google est un truc propriétaire, il "voit" les sites de manière plus simple qu'un browser complet, mais on ne sait pas exactement ce qu'il voit. Disons que pour déterminer si un élément est indexable, le fait que Lynx arrive à l'afficher est un bon indice.
  12. Bienvenue sur ce forum Bielle64 Beaucoup ici te connaissent déjà pour t'avoir fréquenté sur d'autres forums, nous sommes contents de t'accueillir aussi parmi nous.
  13. Bon, merci à vous tous, j'ai une solution impressionnante qui se construit : Un serveur de mail éprouvé au centre de tout ça : sendmail, postfix, ou qmail Un webmail pour consulter les boîtes n'importe où (IMP au hasard, si quelqu'un connait mieux...) OpenLDAP pour gérer des annuaires partagés OgO pour le groupware et les agendas partagés Thunderbird comme client Tout ça m'a l'air pas mal... Mince, même en comptant la location du serveur, j'arrive même pas à 50% du coût de la solution windows / exchange ... Pour un truc sûrement plus performant.
  14. Eh eh ! Merci Monique. J'ai testé thunderbird cet après-midi. Pour l'instant, l'impression est très positive... 1. L'interface est limpide, intuitive. Il y'a tout ce qu'il faut, sans plus. Pour les allergiques à l'informatique que j'ai dans la boîte ("euh.. comment je fais pour attacher mon doc word à mon mail ?"), c'est parfait. 2. Le filtre antispam intégré est redoutable... Oula ! Sympa ça 3. La connection à un ou plusieurs annuaires LDAP est prévue, c'est simple, ça marche du premier coup (là pareil : pas d'options compliquées, juste l'essentiel) 4. J'ai l'impression que c'est très sécurisé... 5. Ah j'oubliais, c'est pro, c'est beau, c'est puissant et c'est GRATUIT ! Je vais continuer à le tester... Mais en tout cas, pour lire mes comptes pop que j'ai à droite ou à gauche, je vais dire adieu à Outlook, adieu à Lotus, et vive Thunderbird... Et hop adopté !
  15. Exact, tu as deviné Berberber... Pour le mail pas de problème, avec Sendmail, Qmail ou encore Postfix, on a tout ce qu'il faut... Le problème, c'est d'avoir aussi une gestion d'annuaire partagé. J'ai trouvé OpenLDAP, qui a l'air assez complet. Si vous connaissez d'autres applis je suis preneur ... Il nous faut aussi un client mail / client LDAP alternatif à Outlook sur Windows... (pour éviter les virus). Je teste Thunderbird en ce moment pour savoir si cela remplit tous les besoins. A première vue, c'est vraiment surprenant : clean, convivial, complet... Pour le côté groupware, c'est vrai que l'on a pris de mauvaises habitudes avec Lotus qui gère cela très bien. Sauf que peu de salariés l'utilisent vraiment régulièrement, donc les convertir à autre chose ne sera pas insurmontable. J'ai déjà commencé à regarder OpenGroupware. Cela semble très bien. Y'en-a t'il d'autres ?
  16. Ma boîte utilise actuellement un serveur de messagerie Lotus Domino sur plateforme Windows pour gérer ses mails professionnels. C'est une version 5.06c, qui commence à "tousser" compte tenu de la montée en charge des flux mails : plus d'employés, plus de messages, plus de spam, plus de virus etc... On est très content de Lotus, mais c'est une usine à gaz très gourmande en ressources... L'antivirus intégré fait souffrir le serveur à chaque apparition de virus mass-mailer, et pour ajouter les fonctions antispam, on est obligés d'ajouter un serveur de plus, juste pour décharger le système. Bref, on envisage de changer de système : sur windows, exchange est intéressant, pas cher, mais c'est un nid à problèmes (virus, trous de sécurités). La dernière version de Lotus est géniale, mais il faudrait deux serveurs en grappe pour gérer nos flux mails actuels tranquillement (bonjour les coûts). Les solutions Novell et Oracle sont respectivement inadaptées ou trop chères... Heureusement, il y'a les solutions sur plateforme Linux, c'est la solution que l'on privilégie aujourd'hui. Quelqu'un a-t'il déjà exploité une messagerie d'entreprise avec des serveurs de messagerie OpenSource ? Quels sont vos retours d'expérience Connaissez-vous des applications sympa de webmail avec "bureau itinérant" par exemple ?
  17. .NET est un système de composants sans doute plus accessible pour le débutant que Linux/Apache/MySql/PHP. Problème : c'est une solution propriétaire Microsoft, qui ne marche que sur les plarteformes Microsoft, avec des logiciels Microsoft. PHP est un logiciel libre, qui marche sur un OS libre, un serveur web libre, etc... Donc la solution LAMP revient beaucoup moins cher. Par ailleurs, l'architecture .NET est une usine à gaz, la simplicité d'interface cache une grande complexité interne, et le résultat, c'est qu'en terme de performances, les résultats sont parfois très mauvais. Donc si tu privilégies la performance, il vaut mieux que tu choisisses Linux/Apache/Mysql/php
  18. Merci LaurentDenis de donner ce contre-exemple. Tordons le cou à ce serpent de mer... En plus, Google, par l'intermédiaire de Matt Cutt à la SES de Londres, a clairement dit qu'il n'avait pas connaissance de l'existence d'un tel filtre.
  19. Mais pas du tout ! Décidément, c'est le fil des malentendus ... Pwet Pwet, Cartouche ne dit pas que des changements drastiques de PR n'influent pas sur les classements, il dit que les Googledance ne sont plus ce qu'elles étaient, et qu'on observe moins de changements lors des Googledance qu'avant. C'est un fait. Et je n'ai pas dit qu'il fallait changer régulièrement ses pages pour être bien classé (ce serait n'importe quoi), mais que les changements dans les classements s'interprètent plus souvent par des changements d'index et de contenu que par des changements de PR. Relisez l'étude de Damien Guigue de Yooda sur l'influence du PR sur les classements, il y'a de quoi relativiser l'impact de ce bon vieux PageRank. La seule conclusion possible à la lecture de ces résultats, c'est que les autres critères sont largement aussi importants pour être bien classé.
  20. Déjà, je pense que l'effet sandbox n'existe pas. Il s'agit d'un terme inventé par Barry Schwarz du site SEORoundTable et popularisé par les membres du forum américain Seochat pour décrire un phénomène qu'ils pensent avoir identifié : - si un nouveau site est indexé, et qu'il dispose dès sa sortie de nombreux liens pointant vers lui, le site est "pénalisé" et reste pendant des semaines (trois mois ?) dans les profondeurs du classement. C'est l'effet "bac à sable" (sandbox) : les sites récents suspects sont priés de passer du temps dans le bac à sable avant de pouvoir monter dans les classements. Par extension, certains voient des effets "sandbox" partout : tout site nouveau aurait du mal à monter dans les classements. Ce truc ne résiste pas à l'analyse : on voit des contre exemples tout les jours. Ceux qui ont inventé le concept confondent corrélation et liens de causalité, ce qui est une erreur classique de raisonnement. Les nouveaux sites sont en général mal dotés en "bons" backlinks, donc ont du mal à figurer correctement dans les classements. Et on soupçonne Google de ne pas donner la même importance à certains backlinks "artificiels" depuis longtemps. Bref, le fait que le site soit nouveau n'a pas d'importance, ce qui est important, c'est la qualité de la structure de liens... L'article de Wayne Hurlbert sur SEOchat : http://www.seochat.com/c/a/Google/The-Sand...-Place-to-Play/
  21. Oui... Parfaitement synchronisé avec la communication sur l'IPO de Google. Si c'est pas louche ça !
  22. Je ne vais pas vous dire que les changements de backlinks ou de PR n'ont pas d'effet sur le classement, mais c'est loin d'être le seul critère pris en compte par Google. C'est marrant de voir a quel point on surestime le PR chez les webmasters français. A l'inverse, chez les ricains, la mode est plutôt à la sous estimation. Les changements dans le contenu des pages (auquel il faut ajouter les changements dans les anchor text) ont souvent plus d'effet sur les classements que les changements de backlinks... C'est à la fois une constatation et le produit d'une analyse de ce que l'on sait de l'algo complet de Google. C'est pour cela que j'approuve ce que dit Cartouche : les changements d'index réguliers bousculent plus souvent les classements que les changements de backlinks. D'abord parce que de nouvelles pages apparaissent, et que d'autres disparaissent, ensuite parce que les changements dans les pages existantes peuvent radicalement changer le classement des pages. Et tu as raison de souligner, Cartouche, que maintenant qu'il n'y a plus de changements d'index, la Googledance a moins de conséquences sur les classements, et donc moins d'importance.
  23. Curieux. Il semble que des représentants de Google aient confirmé tout à l'heure (18h33) que la dernière variante de Mydoom était bien la cause de leurs malheurs... En fait, le virus commence par exploiter les bases mails à sa disposition sur le PC, puis utilise Google, Lycos Yahoo et Altavista pour en trouver de nouvelles... Ce qui produit bien un effet similaire à un DDOS même si ce n'est pas le but du virus... Donc la news de Siddartha reprend une valeur certaine. Pour la DNS attack : elle est confirmée par plusieurs sources. Coïncidence ? Attaque concertée ? Bizarre
  24. Tu vas pouvoir compléter ta news Siddartha, ce ne serait pas un DDOS, mais une DNS attack. Voici leur entrée vers 18h : "GOOGLE.COM.SUCKS.FIND.CRACKZ.WITH.SEARCH.GULLI.COM GOOGLE.COM.HAS.LESS.FREE.PORN.IN.ITS.SEARCH.ENGINE.THAN.SECZY.COM GOOGLE.COM" Intéressant non ? Yahoo et Altavista ont fait l'objet du même genre d'attaques aujourd'hui. Certains forums américains parlent d'un effet de la dernière version du virus mydoom ?
  25. Euh, je n'ai pas tout compris, tu as un hébergement chez Nexen et tu veux acheter un nom de domaine chez OVH ? Le plus simple pour Nexen, c'est de l'acheter chez Gandi (sans hébergement supplémentaire), et de faire pointer les DNS sur celles indiquées par Nexen : Serveur de nom principal : ns1.nexen.net (217.174.203.53) Serveur de nom secondaire : ns2.nexen.net (217.174.203.54)
×
×
  • Créer...