Aller au contenu

Galdon

Hubmaster
  • Compteur de contenus

    138
  • Inscrit(e) le

  • Dernière visite

Tout ce qui a été posté par Galdon

  1. Les seuls services où j'ai inscrit mon adresse Gmail sont Adsense et Analytics, pas de quoi en faire un fromage . Je dis que Google n'est pas une super bonne chose parce qu'il s'agit d'un monopole (on ne va pas chipoter pour les 8-9% que représente la concurrence), et il se trouve que les monopoles n'ont jamais fait avancer les choses.
  2. C'est vrai que la toute puissance de Google devient assez pesante, en fait Google n'est vraiment pas la meilleure chose qui soit arrivée à internet.
  3. Oui j'ai un seul compte gmail pour tous mes sites. Va falloir que j'en créé de nouvelles :/
  4. Bonjour, si j'ai plusieurs sites : un qui a un PR de 4 par exemple, et un autre que je viens de lancer, je peux faire de la pub pour mon site 2 sur le site 1 en plaçant juste un petit lien (qui n'est pas réciproque). Comme ce lien n'est pas réciproque, Google ne pensera pas à un échange de liens, il va considérer ce backlink comme tout à fait légitime puisqu'il ne peut pas faire le lien entre site 1 et site 2. Pourtant, si j'utilise Google Analytics et les outils pour webmasters sur un même compte pour ces deux sites, Google peut maintenant faire le lien entre site 1 et site 2 : ils appartiennent la même personne et donc les backlinks ne sont pas objectifs. Est-ce que Google utilise ce genre d'informations pour classer les pages ?
  5. Bonjour, depuis quelque temps je suis assez actif sur une communauté, et naturellement j'ai mis des liens vers mon site dans ma signature. Au début, le positionnement de mon site c'est beaucoup amélioré pour les requêtes identiques aux anchor text des liens de ma signature. Ça a duré un mois peut être, et puis là je vois que tout s'effondre, comme si google ne portait plus aucun intérêt aux liens qui sont dans ma signature. Est-ce que google est capable de détecter ce genre de chose (pleins de liens identiques sur un même site, une sorte de flood quoi...) ?
  6. Bonjour, mon site a été accepté sur DMOZ, je voudrais savoir dans un premier temps, l'impact que ça va avoir sur mon référencement et le PR de ma page d'accueil (je ne m'attends pas à une hausse du trafic d'après les autres topics que j'ai lus). Ensuite je voudrais savoir quand mon site sera dans Google directory (d'après ce que j'ai pu comprendre, GG Directory se met à jour depuis DMOZ) ? Infos : catégorie DMOZ : http://www.dmoz.org/World/Fran%C3%A7ais/In...phisme_CAO_DAO/ PR page d'accueil : 3 (mais ça fait 2 mois que la GG bar n'as pas été mise à jour, ça aura peut être changé dans quelques jours). Merci
  7. Bonjour, je suis étonné de n'avoir trouvé qu'un topic sur tout le forum ou le site refyou.com soit mentionné. Je viens de tomber dessus avec la requête "outil de soumission annuaires", j'ai testé. Ça va super vite à soumettre et pour une fois ça marche ! J'ai passé mon après-midi à tester plusieurs outils d'aide à la soumission manuelle (Refhotkey, nutsbar, websubmit machun chose, des extensions firefox, des outils anglophones dont je ne me souviens même plus du nom...) et ils étaient tous plus ou moins foireux. Mais là ça marche pas mal à première vue, alors vous en pensez quoi ? (j'ai peur d'en avoir abusé, faudrait pas que GG m'envoie jouer dans le bac à sable )
  8. Je ne suis pas près de gagner de l'argent avec mon site, mais si je mets de la pub ça me permettra de connaître le CPM pour ma thématique et de répondre à cette ****** de question que tout me monde pose sur les forums "combien ça rapporte Adsense ?" (et de payer lhébergement au passage, cest toujours ça de pris).
  9. Bonjour, j'ai un sous dossier qui contient un fichier PHP sensibles et des logs. J'aimerais interdire l'accès à tout le monde sauf 127.0.0.1 à ce fichier sensible, voila ce que j'ai mis dans mon .htaccess : IndexIgnore mon_fichier.php <Files mon_fichier.php> Order deny,allow allow from 127.0.0.1 </Files> Le IndexIgnore fonctionne bien, mais pas l'interdiction. Comment faire ? Merci
  10. Bonjour, je vais bientôt mettre en place des annonces sur mon site web. Je vais dans un premier temps me tourner vers le grand gourou de bon nombre de webmasters : Google Adsense. Mon site a été accepté et j'ai pu lire le règlement. Il y a deux choses qui me dérangent : le paiement en $ qui est carrément plus faible que l', et le délai de paiement. Il faut attendre d'avoir gagné 100$, et ensuite il faut attendre la fin du mois prochain pour toucher les billets. Résultat, si tout se passe pour le mieux je devrais recevoir le premier paiement fin août. C'est pourquoi je vais tester une seconde régie durant le mois qui vient : Adfever, le ptit nouveau. Premier avantage : paiement en (j'espère que leur ciblage est performant sinon ça flingue tout). Par contre, je me pose des questions sur les échéances pour les paiements, leur site n'est pas très clair là dessus (et je nai pas trouvé de mail pour les contacter). Pourriez-vous me dire si c'est plus rapide et sil y a un plafond ? Merci
  11. Bonjour, je me rends compte que de plus en plus de sites abandonnent leur page "partenaires" ou "liens" parce que de toute façon, personne ne les consulte (ni les visiteurs, ni les robots) ; au profit d'un bon paquet de liens dans le footer. J'ai lu ces 2 topics : t1 - t2 Sur celui de WRI, un membre dit que c'est dangereux de faire ça parce que c'est de l'échange de liens et que Google n'aime pas du tout. Pourtant ça a vraiment l'air d'un bon plan, un lien sur chaque page d'un site qui comporte par exemple 500 pages indexées, ça fait quand même pas mal de backlinks ! Alors qu'est ce que je risque réellement, et comment minimiser ces risques ? (échanges avec des sites dont la thématique est proche...)
  12. Bonjour, le code d'exclusion de trafic Google Analytics ne fonctionne pas. J'ai défini ce filtre comme ils le précisent dans l'aide : Ensuite j'utilise cette page pour mettre le cookie sur mon ordi : <!DOCTYPE html PUBLIC "-//W3C//DTD XHTML 1.0 Transitional//EN" "http://www.w3.org/TR/xhtml1/DTD/xhtml1-transitional.dtd"> <html xmlns="http://www.w3.org/1999/xhtml" xml:lang="fr"> <head> <title>Exclure le trafic Analytics</title> <meta http-equiv="Content-Type" content="text/html; charset=utf-8"/> <meta http-equiv="Content-Language" content="fr"/> <script src="http://www.google-analytics.com/urchin.js" type="text/javascript"></script> <script type="text/javascript"> var gaJsHost = (("https:" == document.location.protocol) ? "https://ssl." : "http://www."); document.write(unescape("%3Cscript src='" + gaJsHost + "google-analytics.com/ga.js' type='text/javascript'%3E%3C/script%3E")); </script> <script type="text/javascript"> var pageTracker = _gat._getTracker("mon_id_google"); pageTracker._initData(); pageTracker._trackPageview(); </script> </head> <body onLoad="javascript pageTracker._setVar('stats_off_analytics');"> </body> </html> Mais ça ne définit pas de cookie ayant pour valeur "stats_off_analytics", voila ce que ca fait : .google.fr TRUE / FALSE 1276769761 PREF ID=f94cefb7d55f63f8:TM=1213697764:LM=1213697764:S=u8OZHMB9RbSNKyiR .finalclap.com TRUE / FALSE 1213699561 __utmb 164950312.1.10.1213697761 .finalclap.com TRUE / FALSE 1276769761 __utma 164950312.3676004402469563000.1213697761.1213697761.1213697761.1 .finalclap.com TRUE / FALSE 1229465761 __utmz 164950312.1213697761.1.1.utmcsr=(direct)|utmccn=(direct)|utmcmd=(none) Je me demande si c'est pas dû au nouveau code de suivi analytics. Vous avez une idée pour résoudre mon problème ? Merci
  13. Merci pour la réponse. Par contre Google Analytics lui fait bien la distinction entre , et %2C, c'est pas grave mais c'est pas non plus super pratique.
  14. Bonjour, j'ai des URL de la forme : http://www.finalclap.com/tuto/14,cours-photoshop.html http://www.finalclap.com/tuto/1,cours-3dsmax.html Un site a fait des backlinks sur quelques-unes de mes pages, mais les virgules dans les liens ont été remplacées par %2C. Ces nouvelles URL n'ont pas encore été indexées par Google, et pourtant quand je regarde le cache de ces pages, il n'est pas vide. C'est à dire que quand je demande le cache de /tuto/14%2Ccours-photoshop.html par exemple, Google va automatiquement me chercher le cache de /tuto/14,cours-photoshop.html un peu comme sil considérait que "%2C = ,". Alors est ce que ça va me générer du duplicate content ? De plus, j'ai essayé de faire des redirections pour corriger ces erreurs dans le .htaccess : RedirectPermanent /tuto/14%2Ccours-photoshop.html http://localhost/tuto/14,cours-photoshop.html RedirectPermanent /tuto/1%2Ccours-3dsmax.html http://localhost/tuto/1,cours-3dsmax.html RedirectPermanent /tuto/35%2C3dsmax-tracking.html http://localhost/tuto/35,3dsmax-tracking.html Et ben ça ne marche pas du tout, il me laisse ces saloperies de %2C (un peu comme Google, Apache considère que %2C et , c'est pareil alors il ne redirige pas).
  15. Bah en fait en pratique, c'est légèrement plus élaboré, j'ai créé une fonction start() dans ma classe session : function start(){ if(!is_googlebot()){ session_start(); return true; } else return false; } Comme ca je suis sûr que la vérification a toujours lieu
  16. Bonjour, je suis chez OVH en mutualisé, et naturellement je me suis retrouvé face au problème du ini_set qui renvoie toujours false. C'est ainsi que je me suis trouvé une petite astuce toute simple pour éviter que Googlebot ne tombe sur des pages avec PHPSESSID : ne pas exécuter session_start(). J'ai pu voir pleins de solutions plus complexes genre gérer les sessions sois même uniquement avec des cookies, et pourtant un tout petit test suffit, voici la fonction qui vérifie si le visiteur est Googlebot (c'est basé sur l'USER_AGENT, pas besoin de s'embêter avec du cloacking par IP) : function is_googlebot(){ $agent = $_SERVER["HTTP_USER_AGENT"]; $trouve = strpos($agent,"Googlebot"); // le visiteur est Googlebot if($trouve !== false) return true; // le visiteur n'est pas Googlebot else return false; } if(!is_googlebot()) session_start(); Après on peut toujours l'améliorer pour détecter d'autres bots (Yahoo, Google Adsense...). Je vais utiliser cette solution en complément de cette ligne : "SetEnv SESSION_USE_TRANS_SID 0" dans le .htaccess (ca ne marche que chez OVH, pas en local '
  17. Merci pour la réponse, j'avais vu pour les caches. C'est même ça qui m'intrigues, Google connait les 2 et il garde les 2. Sinon quand tu dit que ça peut prendre plusieurs mois, ça veut dire que mon ancienne URL va couler d'ici quelques temps, et qu'en attendant que la nouvelle URL remonte à la place de l'ancienne, j'aurais moins de visites ? Ou alors est ce que Google va progressivement échanger les classement d'une URL vers l'autre, de manière à ce que ça soit transparent (un peu comme 2 vases, il verse le contenu du premier dans le second au lieu de vider le premier puis de remplir le second) ?
  18. Bonjour, toutes les URL de mon site ont changé il y a quelques jours. J'ai bien mis en place une redirection 301 pour que Google applique le PR des anciennes URL aux nouvelles et oublie les anciennes. Mais voila, quand je tape "Photoshop pour les nuls" sur Google, c'est l'ancienne URL qui ressort : /cours/photoshop.html alors que Google a bien visité la nouvelle URL à en croire la cache (/tuto/14,cours-photoshop.html). Comment ça se fait ? j'espère que je ne vais pas perdre tous mes efforts de référencement ou que ces 2 urls ne vont pas se faire concurrence.
  19. Bonjour, je me demande si le liens externes (autre domaine) ont plus de poids que les liens internes. Je vais prendre un exemple, en bas de chaque page de mon site, j'ai un lien vers... la pages de liens (partenaires). Ma page d'accueil est PR3, et j'ai une petite dizaine de pages PR2, le PR de ma page de liens devrait donc monter. Or il n'est même pas attribué (la jauge est grise dans la barre Google), et tout ça en 6 mois soit 3 mises à jour de la jauge ! Paradoxalement, il ne me faut que quelques liens d'un site externe vers une de mes pages pour élever son PR à 1. Qu'en pensez-vous ?
  20. Moi je peux voir les stats du jour J'ai aussi remarqué que les stats de mon site sont plus souvent mises à jour (avant elles létaient peut être toutes les 4-5 heures, maintenant en 1 ou 2 heures ça roule). Parallèlement, j'ai lancé un forum dont l'URL est sur un sous-domaine. J'ai créé un nouveau compte analytics pour ce domaine et je constate que les mises à jour sont moins fréquentes que sur mon site. Peut-être que Google met à jour les stats en fonction du trafic (plus le trafic est important, plus les stats sont actualisées souvent).
  21. Quand le navigateur refuse les cookies, PHP essaie de passer l'id de session (un numéro dont il a besoin pour gérer les sessions) par l'URL en ajoutant un ?PHPSESSID=kfg5h5gh7fg5h4654f65gh à la fin. Le problème c'est que d'une part les URL sont moches, et en plus l'id de session change tout le temps, ça fait du duplicate content et ça Google aime pas du tout. Il faut donc que tu désactives le passage de l'id session dans la configuration de PHP (fichier php.ini). Si tu est en mutualisé, tu n'as pas accès à ce fichier, dans ce cas vois avec ton hébergeur, il faudra utiliser des fonctions comme ini_set() pour modifier la configuration en live.
  22. Voici l'algo : ouvrir fichier pour chaque ligne du fichier explode (pour récupérer la ligne dans un tableau) insérer les champs dans la base de données fin pour fermer fichier La fonction pour lire une ligne de fichier est fgets(), au premier appel elle lit la première ligne, au second appel elle lit la seconde ligne et ainsi de suite jusqu'à la fin du fichier. http://www.siteduzero.com/tuto-3-172-1-lir....html#ss_part_3
  23. location.href change l'url de la page en cours. Si ta page s'appelle index.html, dès que le navigateur va lire le code javascript location.href, il va arrêter de charger la page en cours et va charger la nouvelle adresse (le nouveau href). C'est un peu comme une redirection en PHP, dès que les headers sont envoyés, le chargement de la page en cours sarrête au profit de la nouvelle page.
  24. Sinon, tu regardes directement dans la feuille de style, il y a la barre Web Developer pour firefox, elle peut t'afficher le style de l'élément sélectionné en plus de plein d'autres fonctionnalités.
  25. Bonjour, je me pose des questions sur la croissance des nouveaux sites. J'ai lancé mon site en novembre 2007 et je constate une augmentation plus ou moins linéaire, j'ai environ 20 à 40 % de visites en plus chaque mois. Au début, au mois de décembre, il y avait seulement une trentaine de visites par jour, maintenant je tourne légèrement au dessus des 200. Je trouve ça horriblement long et décourageant d'attendre comme ça, et je me dis qu'à ce rythme-là je ne suis pas près d'atteindre les 1000 visites par jours. Pourtant ce n'est pas le contenu qui manque, je propose des tutoriaux, je les améliore assez souvent et je me débrouille pour récolter quelques backlinks en étant actif sur une communauté qui correspond au type de visiteurs que je cible (signature). Je suis tombé sur un site qui ressemble assez au mien (en termes de contenu et de visiteurs) : tuto-blender.com. Il se trouve que le webmaster donne les stats de son site (lancé en novembre 2006) : Ça monte pas mal vers juin-juillet 2007, en même pas 2 mois le trafic passe de moins de 100 à plus de 500 visites par jour. Je me suis renseigné, cette période coïncide aussi avec l'ouverture du forum. Est-ce que c'est lié ? Est-ce que c'est Google qui augmente automatiquement le classement des nouveaux sites au bout de 6 mois (un peu comme la sandbox) ?
×
×
  • Créer...