Aller au contenu

ybet

Hubmaster
  • Compteur de contenus

    180
  • Inscrit(e) le

  • Dernière visite

Tout ce qui a été posté par ybet

  1. C'est effectivement la technque que j'utilise: deux ou trois pages en ligne quelques mois avant la mise en route effective du site. Pour le momemnt, ca a l'air de marcher pas mal au niveau de Google.
  2. Pour les images, Google n'y fait pas attention lors de l'indexation (sauf sur Google image). Il y aura quand même un petit problème de duplicate entre la version longue et la version morcelée (56 K) mais ca devrais passer. Déjà vu des forum qui proposaient une version "vitesse lente" et ca n'a pas l'air de poser de problèmes. NDLR: justement sur ce forum: en bas, lien version bas débit.
  3. C'est toujours interdit. Ca a même été changé deux fois il y a quelques mois suite à des interprétations reprenant l'interdiction d'adsence - oxado sur le même site pour revenir à l'interdiction sur la même page
  4. Ma dernière remarque était plutôt de l'humour Ce n'est pas l'optimalisation qui est négative, mais la sur-optimalisation que GG commence à détecter sans trop de problèmes. Faut juste être plus "délicat" dans la manière de référencer les pages.
  5. Fallait bien s'attendre à ce que GG réagisse, il le fait de toute façon depuis des années, sauf que les ordinateurs sont plus pluissants, ce qui facilite ses calculs en temps réels. Quelles sont les méthodes préconisées de puis des années: 1 titre contenant la requête. Ca fait bien 2 ans que GG a supprimer les pages reprenant 4 fois les mots clés 2. description contenant la requête, ici aussi déclassemtn des pages reprenant les occurences pas du tout naturel 3. contenu de la page. C'est ici que ca se complique . - Dans un post, caribou expliquait des systèmes statistiques qui permettent de détecter une occurence de mots un peu trop poussée. - La méthode liste de mots clés dans le footer (sans liens), séparés par des virgules ne passe plus correctement depuis déjà quelques mois, pourtant elle passait pas mal depuis des années. Tant que le mot était sur la page, ..... ca passait. M'était positionné premier sur "informatique zzz" (où zzz est le nom des communes avoisinantes) pendant des années de cette méthode, toujours positionné mais la première place a chaque fois été reprise par le concurrent de sa commune (sauf une où par hasard je suis trusted et c'est pas ma ville, j'aimerais qu'on m'explique ). Je crois que gg a repéré les sites de chaque commune et les liens vers les pages des concurrents (me méfierait de google map qui permet de rentrer les coordonnées d'une entreprise aussi). - h1, h2, ..... commence également à descendre (je pense) si le contenu n'est pas franchement coupé par du texte. Mais finalement pas logique d'utiliser les balises H1, .... comme plan de la page et pas comme technique de référencement - pluriel - singulier: j'en ais beaucoup profité mais bon, a plus la technique de mélanger à outrance le mot au singulier et le mot au pluriel n'a plus l'air de fonctionner non plus, surtout que même dans les recherches, GG les remets comme même mot (en plus qu'il récupère des synonymes, ce qui facilite pas non plus le travail). 4. les textes des liens, si possibles externes. Ici aussi, on retrouve toute la panoplie des liens partenaires sur toutes les pages sans franchement s'occuper qui est le partenaire, du type un site de recettes de cuisine qui envoie un lien (réciproque) vers la page d'entrée d'un site qui parle d'archéologie, ca fait louche - surtout que je doute franchement de l'apport de visiteurs. Comme dit Leonick, GG commence aussi à détecter ces liens externes qui favorisent une page qui n'est pas sur son site, qu'il juge probablement comme page de référence, mais ne dépositionne pas la page qui envoie le lien (dirait même le contraire dans certains cas). Google doit facilement détecter les liens "référencements" et les liens "naturels". Une petite remarque au passage, les sites de ventes ont nettement reculés en 2006 par rapport aux sites parlant réellement du sujet. En informatique, fallait chaque fois aller à la troisième page pour trouver un renseignement technique, même si certains sont toujours bien positionnés, ils ont rarement toutes les premières places, preuve que l'algorythme change au niveau des liens, notamment internes. Ce sont les 4 principales, le reste c'est du saupoudrage de ces différentes techniques, un peu comme une recette de cuisine, ni trop ni trop peu. Faut pas être un spécialise pour détecter une page optimalisée sur un mot clé, il est partout. La technique la plus touchée depuis quelques mois semble être le contenu (quoique). Pour le NDD, pas persuadé que GG ait un jour pris ca en compte (même s'il reprend les mots en gras dans les résultats). Mais bon, rien que dans les forum, on met rarement un beau petit texte pour renvoyer vers une page mais bien directement son adresse. C'est probablement cette méthode qui favorise le NDD avec le mot clés dedans, y compris pour les pages internes. Pour l'ancienneté du NDD, je pense qu'elle est toujours prise en considération (même probablement trop), sauf que les vieux sites plus mis à jour commencent nettement à descendre. Puis bon GG a quelques outils intéressants pour faire le ménage: . analytic certainement (quique je le vois mal analysé les requêtes de ses concurrents) au niveau requêtes d'entrées, durée de la visite, navigation dans le site, .... . adsence : si un site réputé référencment comme celui-ci par exemple n'a aucun click sur sa thématique mais bien sur une autre différente, .... dois y avoir un problème entre le contenu et ce que les visiteurs viennent chercher. . votre propre compte google utilisé pour diverses inscriptions lié à un cookies. Me suis étonné en affichant mon site sur le PC d'un client, les pubs adsences affichées n'étaient pas du tout les mêmes. Si adsence est capable de positionner les pubs en fonction du visiteur, ca doit pas être beaucoup plus dur de modifier le positionnement des pages dans une recherche en fonction de l'intérêt de l'internaute. D'aillieurs, en faisant un tour sur la page du compte, on retrouve en version Beta Historique des recherches e comme contenu Obtenez des résultats de recherche répondant à vos attentes. La recherche personnalisée améliore la recherche Google grâce à un système de classement des résultats en fonction des recherches que vous avez effectuées précédemment. Dans un premier temps, vous ne verrez peut-être pas la différence, mais à mesure que votre historique des recherches s'enrichira, les résultats personnalisés seront de plus en plus pertinents. Vous pouvez consulter votre historique de recherches à tout moment en cliquant sur le lien « Historique des recherches » sur la page d'accueil de Google. Si vous souhaitez que certaines de vos recherches ne soient pas incluses dans l'historique, il vous suffit de cliquer sur le bouton « Mettre en veille » sur cette page. Le stockage de vos recherches dans l'historique et leur utilisation pour personnaliser vos résultats de recherche ne reprendront qu'une fois que vous aurez cliqué sur « Réactiver ». Rien que celà en dit long sur les prétentions futures du moteur. Attention quand même qu'il y a de gros disfonctionnement dans les DC depuis des mois, sur certaines requêtes, bien positionné 3 jours sur tous les DC, quasiment nulle part le lendemain pour revenir à l'état initial sans avoir rien changé aux pages. A force on s'habitue (disons on panique plus) mais ca ressemble quand même à des tests de Google. bon, on reprend tous les sites à zéro, on abandonne toute idée de bien se positionner par les méthodes réservées aux SEO, plus de titre et de description qui prennent du temps, plein de fautes d'orthographes dans les pages.
  6. Pas franchement de niche .... Parfois quelques pages spécifiques qui passent. Pour donner un exemple, mon site belge.be (même hébergé en France ) sur 3 requêtes en 1 mots: GG FR GG BE 13 1 22 3 9 5 ... ca te donne une idée des différences de positionnement avec la géolocalisation. Sur certaines requêtes, je suis premier en Be et pas dans les quarantes premiers sur le FR.
  7. 17 pages connues par GG pour ce site ca me parait un peu juste. Une autre chose bizarre www.site.com pas dans le cache, www.site.com/index.php dans le cache mais du 11 janviier (un peu long), même pour un PR0 (apparament et malgré les 2 modifications du mois de janvier). Pas eut d'arrêt du serveur de ces jours ci par hasard?
  8. Mieux vaut une inscription manuelle dans une vingtaine de bons annuaires genre http://www.pageshub.fr/ que sur 2 milles jamais visités. Ca peut même être finalement nocif.
  9. Chapeau Seb, même inclut le PR sur ce moteur ...
  10. ybet

    PHP ou HTML

    Oui, ca fonctionne sans problème. Je le fait régulièrement au cas ou j'installerais des fonctionnalités sur mes pages HTML. Mais: 1. ca va changer complètement le référencement, pages html disparue, nouvelles pages. 2. attention en créant les liens. Tu va devoir coder en manuel, genre index.PHP sur toutes tes pages.
  11. Dès que tu utilise une base de donnée et commence à permettre les tris de différentes manières, ca explose. Il y a d'autres techniques également comme récupérer les recherches des internautes sur ta base de donnée et en faire une page directement (même si j'aime pas vraiment cette méthode). 10.000 pages en HTML, c'est effectivement beaucoup. Mais de nouveau, ca dépend de ta manière de travailler. Si tu scinde chaque page de contenu en plusieurs morceaux, ca monte également très vite. Là aussi pas persuadé que c'est réellement intéressant en terme visiteurs et référencement.
  12. Pour moi si Au moins, tu vérifie les link et le PR en même temps. C'est quand même les 2 modifications qu'apportent encore la Google Danse. Reste à voire combien de temps elle va prendre, certains DC ne sont toujours pas alignés depuis celle de septembre
  13. Pour l'avoir utilisée il y a quelques années, cette solution est effectivement facile à utiliser et rapide pour les mises à jours prix - stocks. Elle permet en plus de reprendre les coordonnéées clients directement du site vente en ligne vers la gescom. Pourtant: .... 1. ne passe en aucun cas dans les moteurs de recherche. Cette solution ne s'adapte pas à la vente directe, mais à bien à des entreprises qui travaillent avec des clients qui connaissent déjà l'entreprise. (genre grossiste). 2. Cette solution revient finalement assez chère, en plus qu'elle nécessite un site propre (rien que pour la présentation de l'entreprise). 3. Les possibilités de paramétrages sont relativement limités, surtout au niveau graphisme. Suis revendeur officiel Ciel en Belgique et pourtant, la déconseille à mes clients. PS: celle de Sage est strictement identique à celle de Ciel (mais l'abonnement est nettement plus chère). Microsoft a également une solution (fouareuse ...) . Un de mes grossite l'utilise, pas moyen de bloquer les accès de l'extérieur correctement (n'importe qui peut voire les tarifs), ergonomie quasiment inexistante, ... Mercator a également une solution identique à celle de Ciel. Comme cette suite gescom se bricole sans porblème en SQL (avec des connaissances de programmation tout de même), elle est un peu plus maléable que Ciel, mais passe toujours pas les moteurs de recherche. Pour le moment nos différents OS commerce sont gérés manuellement. On travaille sur une solution lian Oscommerce gestion commerciale, mais pas évident de trouver une solution satisfaisante.
  14. Le réglement a changer depuis plus d'un an, tout simplement parceque ca empéchait de donner ses gains aux ... contributions. Par contre, il est interdit de permettre à quiconque de déterminer le CPM ou le CRT. Afficher j'ai gagné 50 * aujourdhui est autorisé. Par contre, j'ai gagné 50 $ sur le site fff avec 12450 pages vues est interdit. PS quel intérêt d'afficher les gains sur le site, une incitation au click (interdit)?
  15. Je sais que tu as développé une méthode en interne. Tu utilise une gestion commerciale standard (laquelle?) avec un programme de transfert ou directement un développement complet
  16. le problème de trade n'est pas forcément le payement. En fait, il payent quand ils sont payés par les annonceurs. Si l'annonceur paye dans 3 mois à la fin de ce mois, tu est payé pour cette partie dans 3 mois ... pour les dates de payements.
  17. Pas vraiment de bonnes solutions actuellement. Quelques firmes proposent un site de vente en ligne relié sur leur propre gestion commerciale (CIEL, EBP ou Mercator). Chacune de ces solutions posent des problèmes de référencement. J'ai monté une pseudo application sur SAGE série 100 mais le transfert des stocks vers le site fonctionne correctement mais pas la réception des commandes ... Dois encore vérifier si je ne pourrait pas faire un interfacage de mercator vers OSCOMMERCE via un module à créer. Mais d'autres ont peut-être trouvé des solutions meilleures.
  18. Même structures de pages pour les 2 sites. Me méfierais de tes adresses avec beaucoup de tirets. Au passage, tes titres sont un peu long.
  19. Probablement une coincidence. Même si le PR fait partie (encore) de l'algorithme, ce n'est plus le principal critère. Par contre, GG réserve parfois des surprises. Un de mes sites à pris 50 % de visiteurs en plus début septembre via GG, sans raison apparentes. Juste un meilleur positionnement sur des requêtes mineures. et ces derniers jours reperd 30 %. Dans ton cas, ca ressemble plus à des mouvements dans les positionnements, une meilleure analyse de ton site par le robot, peut-être lié à la montée des BL mis à jours en permanence (la GD ne fait qu'afficher les BL avec généralement quelques semaines de retard).
  20. Ca dépend de la Google Danse. Depuis plus d'un an, ca traine à chaque fois. De toute façon, il y a une mise à jour des BL sur certains DC il y a plus d'un mois et GG semble les remettre à jour cette fois-ci encore mais en même temps que le PR. Quelques dc affichent encore les BL supérieurs à 2 mois. Rien n'est sûr. On peux également assister comme il y a quelques mois à un retour en arrière. Wait and See
  21. La mode actuelle dans les webmaster, c'est le référencement (avec ou sans connaissances d'aillieurs). Sur un modeste annuaire, retrouve en moyenne 3 sites par semaines qui essayent de se positionner sur la requête. Résultat, 1 sur 6 accepté en moyenne. Dans les 5 refusés: . 1 tricheur (ben oui, pourquoi pas) . 1 site tellement mal foutu que même en 10 minutes, aucune chance de savoir de quoi parle le site . 3 avec des titres et / ou descriptions même pas renseignées ou farfelues. J'ai même retrouvé des sites complètement en flash (pas même 1 lien en html) qui proposent du référencement. ...
  22. C'est un minimum pour la rentabilité
  23. Tu peux également créer 2 sites pour la même société. Pas plus facile?
  24. Pas sûr. D'un autre coté, les moteurs verront un plus gros site, donc plus pertinent. [Edit captain_torche]Inutile de citer le message précédent; on vient de le lire
  25. de la thématique, du placement et mise en forme, de la qualité du site (Certains sites sont mieux payés que d'autres), de la bonne volonté de Google qui envoie finalement les annonces qu'il veut sur chaque site et par expérience, c'est ce dernier point qui modifie le plus le % de clicks et le prix moyen des clicks. µ Un site me donnait des petits cents et tout à coup il est passé à quelques dizaines de centimes. M'étonnerais que ca soit un hasard
×
×
  • Créer...