Aller au contenu

Galdon

Hubmaster
  • Compteur de contenus

    138
  • Inscrit(e) le

  • Dernière visite

Réputation sur la communauté

0 Neutre

Information du profil

  • Genre
    Indefini
  1. Bonjour Je souhaite acheter un nom de domaine en .com qui est actuellement disponible, mais visiblement ce nom de domaine a déjà été utilisé dans le passé, d'après ce que j'ai vu grâce à cet outil : http://whois.domaintools.com/ : Ma question porte sur le référencement Google : est-ce que le référencement de mon futur site pourrait être impacté par d'éventuelles pénalités héritées du passé de ce nom de domaine ? Ou alors est-ce que Google "remet les compteurs à zéro" quand il voit que le propriétaire du domaine a changé ? Merci
  2. Ok, merci pour la réponse. Je vais partir sur l'ajout d'une graine pour fixer l'ordre alos (bien sûr ça serait mieux de récupérer des billets similaires avec par exemple des catégories et des tags, mais c'est trop long à faire pour le moment, ça demande beaucoup plus de travail que l'ajout d'une graine).
  3. Bonjour, Sur mon site il y a une partie blog, et en bas de chaque billet il y a un fil de lecture où j'affiche une série de 5 liens internes vers d'autres billets du blog, tirés au hasard (via MySQL RAND()). Ex: http://www.finalclap.com/news/97-lytro-appareil-photo-plenoptique.html Du coup cette partie de la page change à chaque chargement, et donc à chaque visite de Googlebot. J'ai fait ça pour que les anciens billets ne tombent pas dans les oubliettes et pour essayer de faire circuler un minimum le jus, histoire que les billets bien trusté puissent tirer les autres vers le haut. Je me demandais si c'était pas une mauvaise idée ce mode de fonctionnement totalement aléatoire, si Googlebot voit que les liens dans cette partie de la page changent tout le temps, est-ce qu'il ne risque pas d'y porter moins attention ? Ce sont des liens qui sont complétement éphémères, je sais pas j'ai comme une intuition qui me dit que c'est pas super, vous en pensez quoi ? Je pense modifier le fonctionnement (en utilisant une graine : RAND(seed) pour que le fil de lecture ne soit plus volatile), mais j'attends votre avis avant. Merci
  4. @Leonick: bof, il faudrait quand même avoir pas mal d'hébergements derrière (pour avoir des IP différentes), et le coût d'un nom de domaine est dérisoire comparé à l'hébergement. Sinon, tout ça m'inquiète beaucoup. Je vais bientôt acheter un beau domaine tout propre pour ce site, est ce que vous savez s'il y a moyen que Google reporte toute la popuplarité (pagerank, trustrank...) de l'ancien domaine vers le nouveau ? Pour le moment la seule mesure que je vois c'est mettre une redirection 301 sur toutes les URL de l'ancien domaine vers le nouveau (htcaccess). Il y a bien une fonctionnalité dédiée au changement d'adresse dans google webmaster tools, mais il est écrit : "Limité aux domaines de niveau racine" '
  5. Ah pas bête, je n'y avais même pas pensé... Mais à mon avis c'est peu probable, puisque le blacklistage a été radical. Et en plus, dés que j'ai constaté le problème, j'ai tout de suite été voir dans Google Webmaster Tools et là j'ai vu ce message affiché en rouge dans le dashboard : Pour ce qui est d'acheter un nom de domaine, effectivement ça serait une bonne idée maintenant que ce site est (était) bien référencé. J'en ai jamais acheté parce que ce n'est pas mon site principal, à la base c'était juste un test de Wordpress.
  6. Bonjour, Un de mes sites s'est fait blacklisté par Google mi-juillet. Le site (qui tourne sous Wordpress) date de 2008, et je n'ai jamais eu de problème avec, c'est un blog fourre-tout où je poste des astuces diverses (développement, bricolage…) et du contenu "détente" comme des vidéos ou des jeux flash (genre koreus). Le changement a été radical, j'ai tout simplement été rayé de l'index du jour au lendemain. Je suppose que c'est cet article datant du 15 juillet qui a provoqué le blacklistage : http://mr-schnaps.infos.st/archives/669-my-media-spam-phishing-google-adwords (qui parle d'une tentative de phishing qui m'a été adressé, et qui contient donc des keywords qui pourraient être mal interprétés par un bot). Donc j'ai envoyé une demande de réexamen via Google Webmaster Tools le 18 juillet : Réponse de Google, le 22 juillet : Mais mon site n'est toujours pas revenu. On dirait qu'ils n'ont pas fait une vérification humaine, mais qu'ils ont juste lancé un robot pour vérifier la présence de mots clés suspects. Vous en pensez quoi ? Merci
  7. Bonjour, Je possède 2 comptes Google Adwords. En fait j'en avais créé un premier en août 2009 (en mode post-paiement), et j'en avais créé un second quelques mois plus tard, en mode pré-paiement cette fois-ci (puisque ça n'est pas possible de changer le type de compte après sa création). Du coup, régulièrement, je reçois des offres de promotion (par mail ou par courrier), des avoirs de 75 ou 100 euros pour essayer Adwords... en double ! Un code promo pour chacun de mes deux comptes en fait. Pas sûr que ça soit volontaire chez Google, ils ne doivent surement pas vérifier s'il y a des doublons dans les codes promo qu'ils distribuent. Du coup j'hésite à utiliser les deux, si c'est effectivement une erreur de Google et qu'ils s'en rendent compte un jour, ça ne va pas leur plaire du tout :s. Suis-je le seul dans cette situation ? Merci
  8. Bonjour, Je souhaite mettre en place un tracking de clic sur certains liens, avec Google Analytics. J'ai déjà un compte et un profil (en place depuis 2007). Il y a plusieurs points sur lesquels je m'intérroge : 1. Est-ce que c'est mieux de créer un nouveau profil spécifique pour le tracking des liens, ou d'utiliser le profil éxistant ? 2. Comment faire au niveau du code... Pour le moment j'ai bricolé ça (j'attache une fonction sur le clic des liens qui m'intéressent) : /* Exemple avec 2 profils et le code GA synchrone */ var pageTracker=_gat._getTracker("UA-10000000-1"); var clicTracker=_gat._getTracker("UA-10000000-2"); pageTracker._trackPageview(); $('.mes_liens').click(function(event){ // Le code qui remonte l'info à Google Analytics, ex : clicTracker._trackEvent(???); }); C'est la bonne méthode ? Est-ce que ça fonctionnera aussi avec le nouveau code asynchrone ? 3. Y'a t'il des choses à paramétrer dans Google Analytics (dashboard, préférences, filtres...) pour que ça fonctionne ? Merci
  9. Bonjour, J'ai été contacté par une agence web, qui me propose de diffuser de la publicité (genre image 300 ou 125 dans la sidebar style ad42 ou buysellads) pour un de ses clients (qui est exactement dans la même thématique que mon site). Ca serait donc un contrat sans régie publicitaire, du coup je pense faire un lien directement sur le site du client : <a href="http://siteduclient.com" rel=""><img src="publicite.png" alt="" width="300" /></a> Le problème, c'est que j'ai peur qu'il y ai un impact négatif sur mon référencement, Google assimilant ce procédé à de la vente de liens. Mon site a déjà 3 ans, et je suis pas trop mal placé sur Google, à chaque fois que je créé une nouvelle page (news...), elle apparait dans les résultats quelques minutes après la publication. En résumé j'ai beaucoup à perdre. Quelle est la meilleure solution selon vous, laisser comme ça, mettre un nofollow sur le lien de la publicité, ou encore utiliser une redirection 302 vers le site du client ? Merci
  10. Bonjour, Je souhaite exclure mes ordinateurs de Google Analytics. Pour ça j'utilise la méthode avec le cookie (_utmv). Dans un premier temps, j'ai créé un filtre personnalisé "exclure" ayant comme règle de filtrage : track_off, comme c'est indiqué dans l'aide de google : http://www.google.com/support/analytics/bin/answer.py?hl=fr&answer=55481 Ensuite, j'ai créé une nouvelle page.html avec dedans, le code de tracking analytics et la ligne javascript qui créé le cookie. Grosso modo ce code source là : <html> <head> <meta http-equiv="Content-Type" content="text/html; charset=utf-8" /> <script type="text/javascript"> var _gaq = _gaq || []; _gaq.push(['_setAccount', 'XXXXXXXXXX (id analytics)']); _gaq.push(['_trackPageview']); (function() { var ga = document.createElement('script'); ga.type = 'text/javascript'; ga.async = true; ga.src = ('https:' == document.location.protocol ? 'https://ssl' : 'http://www') + '.google-analytics.com/ga.js'; var s = document.getElementsByTagName('script')[0]; s.parentNode.insertBefore(ga, s); })(); </script> </head> <body onLoad="javascript:pageTracker._setVar('track_off');"> </body> </html> Evidemment ça ne marche pas. La console javascript de Firebug m'indique pageTracker is not defined. J'ai remarqué que le code de tracking a changé par rapport à celui que j'utilisais sur d'autres sites plus vieux. A mon avis ils ont juste oublié de mettre à jour leur page d'aide pour que ça marche avec leur nouveau script de tracking, où il n'y a plus de variable pageTracker. Comment faire ? Merci
  11. Ah bon ? Ce n'est pas ce qu'on m'a appris en cours de droit des TIC à l'IUT alors. J'ai envoyé un mail à abuse_AT_free.fr hier soir, j'attends la réponse. Merci pour l'info
  12. Bonjour, Du contenu de mon site dont je suis l'auteur est hébergé sur un site xxxxxxxx.free.fr. Il n'y a pas d'email de contact sur le site en question, et en plus je suis pas sûr que le problème soit réglé rapidement en passant par là. Et puis légalement, c'est l'hébergeur qui est responsable. Est-ce que quelqu'un connait une adresse email pour contacter free et leur demander de supprimer la page concernée (voir tout le site si les techniciens ont la flemme de chercher) ? Je n'ai pas trouvé d'email ici Merci
  13. Merci pour cette info. Seulement, passer par Google Webmaster Tools ne résoudra le problème que pour Goooglebot, pas pour les autres moteurs. Et puis j'ai remarqué, dans les logs, que depuis que Googlebot indexe des tonnes de memberlist.php, il indexe beaucoup moins de pages de contenu (topicXX.html) par jour. En plus, il y a quelques mois j'avais environ 2000 pages indexées pour le forum, et 2500 pour le site. Et aujourd'hui, j'en ai 1950 pour le forum et 567 sur le site (le site a été touché en premier par ce problème de "pollution". Donc quelque chose me dit qu'il ne va pas tarder à arriver la même chose au forum, alors je préfère anticiper.
  14. Ok, merci beaucoup pour cette précision, ça répond à toutes mes interrogations.
  15. Bonjour, En regardant mes logs, je me suis aperçu que Googlebot explore énormément de pages (plusieurs centaines/jour, presque un millier) sans intérêt sur mon forum phpBB, comme la liste des membres. Voici un échantillon des URL visitées : Je souhaite interdire ces pages aux robots avec le fichier robots.txt. A ma connaissance, la règle Disallow ne permet d'exclure que des repertoires ou des fichiers spécifiques. Dans mon cas, il n'y a pas d'URL précise puisque memberlist.php est une page dynamique qui prend pas mal de paramètres GET donc ça fait un nombre d'URL différentes monstrueux. Et ce que si je mets ce code dans robots.txt ça va marcher, peu importe les paramètres en URL : User-agent: * Disallow: /memberlist.php ? Merci
×