Aller au contenu

ybet

Hubmaster
  • Compteur de contenus

    180
  • Inscrit(e) le

  • Dernière visite

Tout ce qui a été posté par ybet

  1. si c'est un site FR, tu peux déjà retrouver ses coordonnées ici. http://www.afnic.fr/outils/whois/ ou ici: http://www.raynette.fr/services/whois/ pour les autres.
  2. Tous OS commerce est basé sur des tableaux. Te reste juste à insérer un tableau avec ton image de fond. Je sais vais me faire tuer avec les CSS.
  3. dans un sens oui, mais la popularité du domaine semble rebondir sur le sous-domaine - du moins pour GG. Par contre, que deviendra ton site si le domaine est supprimé? Mieux vaut un vrai non de domaine.
  4. Je connais pas mal OScommerce (3 installations personneles + quelques unes pour les clients. Confronté au même problème d'un site de petites annonces. Finalement suis en train de développer un truc tout neuf. OScommerce (malgré toutes ses qualités) est quasiment impossible à adapter dans ce cas.
  5. 1. marques blanches sont difficiles à référencer car finalement assez semblables d'un site affilié à l'autre. 2. une dizaine de jour ..... avec le sandbox et autres filtres du même genre, faut maintenant quasiment 6 mois pour commencer à être dans les recherches. 3. avant d'avoir des commandes, est-ce que ton site est connu dans les moteurs de recherche. Tape comme recherche: site:http//www.mon-site.xxx. Après 10 jours, m'étonnrais.
  6. Oui, apparament, GG devient plus cool dans ce cas (la concurrence prochaine de MSn, voire Yahoo), mais faudrait pas croire que tout est permis. Pour quelques clicks accidentels (je vérifie régulièrement mes sites et ca arrive moins d'une fois par mois), GG ne les comptabilise pas tout simplement. Par contre, les nouveaux sites, avec peu de visiteurs et peu de clicks sont plus vérifiés et plus souvent bannis .... définitivement
  7. ybet

    Probleme de formulaire

    transfère dans une variable tableau PHP $i=0 while ... { array= ... $i=$i+1; }
  8. Dirais même de plus en plus souvent ces temps ci, en plus c'est aléatoire.
  9. Me semble effectivement la bonne solution. Surtout qu'en acceptant GG sur un site protégé, les pages seront dans le cache (sauf noindex mais quel intérête de faire référencer des pages sans contenu pour le robots, éventuellement no cache.
  10. J'ai déjà fait la liste de ce qui était important sur un autre forum il y a moins d'un mois (type collaboratif), j'ai déjà donné Mais pourquoi pas ...
  11. Pas forcément. Des vieux sites ont survécus sans modifications de leurs pages pendant des mois. Par contre, de nouvelles pages vont attirer au minimum le visiteur.
  12. 1. Oui. Plus un site est important, plus le nombre de liens internes (notamment vers la page d'entrée augmente). Au niveau des visiteurs, il y a également plus de chance qu'ils visitent des pages sur un site de 5000 pages que sur celui de ... 1 pages. 2. Ca ne peux que te faire un lien externe, mais faut pas trop en abuser. 3. Les tableaux ne sont pas néfastes, juste un peu plus lourd. Pour la fonction includes, seul le programmeur le sait. GG et le visiteur ne voient que le résultat. 4. Oui. Tu va d'abord débuter par la sandbox (entre 2 et 12 mois sans comprendre pourquoi tu es mal positionné). GG a tendance a favoriser les anciens sites, probablement catalogés comme de confiance - mais ce n'est pas une règle absolue.
  13. Pour beaucoup de sites (et pas que les miens), les annonces textes ont un meilleur taux de click. Mais ca dépend peut-être de la présentation du site.
  14. Je serais pas aussi vindicatif. Vois mal un débutant atterrir avec 50.000 visiteurs dans les 2 mois sur son premier site en le référencant. Par contre ca peut permettre de se positionner sur ses propres requêtes relativement rapidement. Pour les professionnels, c'est vrai qu'on vois de tout (et finalement une large partie utilise tout ce qui est interdit, c'est plus rapide et plus efficace à court terme, plus tard ca risque de casser - le numéro 1 en belgique vient d'allieurs d'en faire les frais avec sont site, restera plus à GG a éliminer ses clients ensuite). Les référencements à bas prix par inscription dans les anunaires automatiquement ne donnent aucun résultat, même parfois empirent le référencement. Il reste à faire son référencement personnellement en lisant les conseils sur les différents sites et forums sur le sujet. Il y en a suffisament pour avoir une large idée sur le sujet et suffisamment de gens qui donnent des conseils.
  15. Rien à voire avec le sujet mais c'est également un autre phénomène bizarre. J'ai eut ca il y a 3 mois. Site principal passé de 65000 pages à 950. Celui là c'est revenu très vite. Par contre sur un site plus jeune (6 mois) passé de 270 à .. 40. Revient seulement maintenant (depuis 2 jours) à son état initial. Te dis pas la perte nette de visiteurs sur le nouveau. Par contre sur le principal, à peine 5 %.
  16. Tu entre dans le bios dans la rubrique integrated peripherical généralement
  17. Nous a bien fait une GD le 1er janvier (en 2004 je crois), tout pour nous faire craquer
  18. M'étonne pas. Je doute pas de cet outils vraiment. Par contre, il y a des bizarretés dans le PR de quelques pages (notamment qui repasse à ZERO). Pense plutôt à un problème passagé des DC ou à un nouveau bricolage de BigDady (sans doute un numéro 4 , ca devient comme les films à succès, chaque numéro est pire que le précédant )
  19. on vient de proposer cet outils sur un autre forum http://oy-oy.eu/google/pr/ Modification du PR pour quelques pages sur un petit nombre de DC. Vieux comme nouveau site: PR0 -> PR2 pour beaucoup de pages. Par contre, sur un site de 6 mois, des pages PR3 passent à PR2 (jusque là ca arrive) mais des pages PR1 passent à 0. C'est ca qui me semble bizarre. Ca ressemble plus à un problème de datacenter qu'à une mise à jour. Dire que la GD durait quelques heures il y a seulement 2 ans. Maintenant faut quasiment 1 semaine pour quelques misérables modifications. Apparament, pas de mise à jour des BL
  20. Tu dois acheter une carte PCI USB 2.0 et supprimer le port USB 1.1 dans le BIOS. Seul XP reconnait l'USB directement, pour les autres, un simple pilote fourni avec la carte suffit.
  21. Pas si sur, beaucoup de petits sites perso mettent des annonces actuellement, c'est finalement un copier / coller simple. L'affiliation adsence a probablement permis à GG d'en récupérer quelques uns. Même un club des jeunes d'à coté avec peut-être 10 visiteurs par jour en a mis (en supposant qu'ils ne se fassent pas virer pour clicks incorrects ) Il semblerait que la Hollande est en train de mettre en place un système de vérification des annonceurs adsence. De toute façon, ca va pas être difficile pour les états européens de retrouver les bénéficiaires. Les transactions bancaires sont très contrôlées et je rappelle que les payements sont internationaux (ca va encore être plus facile). Juste le temps que les différentes administrations se mettent en route. Va y avoir des grincements de dents pour beaucoup de ceux qui n'ont rien déclaré: . ammendes et taxes. . obligation d'un statut d'indépendant avec les différentes contraintes. . probablement un assujetissements à la TVA obligatoire avec une amende de non déclaration. Même si cette possibilité va permettre à beaucoup de retirer leur PC, connexion Internet et frais divers.
  22. Non remarque que se placer sur le mot casino, déjà bourré de spams, de professionnels honnête ou malhonnête avec un site correct est déjà quasiment impossible. Les techniques de base du référencement reprennent: 1. les robots lisent les textes. Pour être bien référencé sur une recherche, mieux vaut donc que les mots soient repris dans la page. 2. les robots suivent les liens. En plus ils optimalisent la page qui reçoit le lien en fonction du texte du lien (tant que ca n'est pas chaque fois le texte identique). Mettre Accueil pour retrouner à la page d'entrée du site permet donc de mieux se positionner sur la recherche "accueil" 3. les liens javascript ne sont pas suivi. Les liens en flash sont suivi dans une moindre mesure. 4. Les moteurs de recherche donnent de l'importance aux meta titre et description. Elles doivent être chaque fois différentes sur chaque page. 5. Patience. les robots ne passent pas leur vie sur un seul site, il faut des mois pour faire passer des requêtes un peu difficiles. 6. soyez réaliste. Premier sur des recherche comme informatique est quasiment impossible, même avec de vieux gros sites. Alors sélectionnez les requêtes en rapport avec l'ambition de votre site. Mieux vaut être premier sur des recherches à 2 mots que 30 ème sur une recherche ne reprenant qu'un mot. et le petit dernier 7. faites vos sites pour les visiteurs d'abord. Les techniques tortueuses genre textes cachés (il y en a de plus méchantes) risque tout simplement de mettre les moteurs de mauvaise humeur. Un texte reprenant une liste de mots clés sera mal vue par les visiteurs et ... par les moteurs. Ces 7 point de départ ne permettent pas de passer premier sur des mots ultra-concurrentiels, mais au moins d'avoir des pages correctement référencées sur ses requêtes. Le reste est un mélange de tests en mélangeant ces techniques. moi aussi. Mais plus courte que les bétises qu'on lit dans les codes sources de certains sites. Rien que la liste des meta farfelues que j'ai déjà rencontrée <META NAME="REVISIT-AFTER" CONTENT="1seconde">
  23. S'il y avait 1 seule technique miracle, elle serait utilisée par tous, du genre (je cite quelques bétises que j'ai lu ces derniers mois): . est ce qu'une page qui a changée à chaque visite du robot est mieux référencées. -> sinon toutes les pages affichant l'heure serait première. . est ce que créer 2 pages reprenant le même texte avec des liens entre les 2 pages amméliorent le référencement des 2 pages -> non, ca s'appelle du duplicate content et sanctionne minimum 1 des 2 pages. . est ce que mettre beaucoup de fois le même lien sur une page vers une autre page amméliore le référencement de la page qui recoit les liens -> non . En plus c'est génant pour le visiteurs. (le gars voulait le mettre une centaine de fois en plus ). . si j'obtient un gros PR, toutes les pages seront premières -> non. Déjà l'importance du PR a nettement diminué. Deuxièmement, une page optimalisée sur une requête aura du mal à être positionnée sur des requêtes qui n'ont rien à voire.En plus premier sur toutes les requêtes serait difficile. . Comment concurrencer le premier avec ma page. -> Le pauvre tente de passer premier sur le mot casino avec une page remplie de liens externes publicitaires avec un site qui comporte .... 1 page. ca c'est ma préférée. Il y en a qui doutent de rien. ... C'est déjà pas mal comme bétises qu'on lit comme question sur les forums
  24. non, tableau ou css change pas grand chose. A part peut-être que c'est plus facile de positionner le texte intéressant au dessus du code source par tableaux (mais ce n'est pas confirmé que ca amméliore).
  25. c'est aussi mes constatations. Par contre ... mettre un lien de direct sur ce forum, pas peur de tomber dans le duplicate content lorsque le site sera effectivement en ligne. Au passage, les gens ont tendance à taper au singulier. Suis sur le référencement d'un site d'assurance -http://www.assurances.lu. 4 fois plus de visiteurs sur assurance que sur assurances alors que le deuxième est nettement mieux placé.
×
×
  • Créer...