Aller au contenu

Siddartha

Hubmaster
  • Compteur de contenus

    748
  • Inscrit(e) le

  • Dernière visite

Tout ce qui a été posté par Siddartha

  1. Suspend immédiatement ta campagne si tu as un souci avec le volume facturé. Pour cela, il te suffit de mettre ta ou tes campagnes en pause (tu sélectionnes tous tes mots-clés ou tes groupes de mots-clés et tu cliques sur Pause). Ne supprimes pas directement ces campagnes, au moins l'historique de ton trafic sera conservé et tu pourras écrire à Google pour leur demander de t'expliquer ce qui s'est passé et qu'il te recrédite ton compte le cas échéant. Pour les contacter, une fois loggé dans ton compte utilisateur, tu vas à cette adresse : https://adwords.google.fr/support/bin/request.py?hl=fr
  2. Bonjour, J'ai un petit trou de mémoire pour faire rediriger toutes les pages d'un site vers un nouveau dns. En fait, j'ai un dnsold.com avec environ 3.000 pages indexées dans les outils de recherche et dnsnew.com qui est le nouveau nom de domaine . Je n'arrive pas à faire en sorte que lorsque une internaute tombe sur une url de type : dnsold.com/rep1/page1.html, cette requête soit automatiquement redirigé vers dnsnew.com/rep1/page1.html. Et la correspondance pour toutes les autres urls. Il me semblait que c'était du côté de ServerAlias que j'aurais la solution, mais non .. Quelqu'un aurait une idée ? Merci d'avance !
  3. Idem que Thick, d'ailleurs j'ai même viré la petite barre verte ... Ca change la vie c'est à essayer
  4. Hello Samuel, Ca fait plaisir de te savoir ici Bienvenue à bord alors !
  5. Non le taux de transfo de tes campagnes est bien différent de celui que ton site accompli naturellement. Dans l'idéal, il faudra pouvoir arriver à distinguer les deux et jouer sur ces deux leviers pour maximiser les retours.
  6. D'autant plus que le taux de transformation ne dépend pas de la campagne de liens sponsos .. Une campagne de liens sponsorisés se lance pour créer un trafic suffisamment qualifié par rapport à un produit vendu. Le taux de transformation, lui, dépend principalement du site sur lequel la campagne de liens sponsos renvoie et du parcours à réaliser pour arriver au clic en or, celui de la validation de la commande. Bien qu'intiment lié, le taux de transformation est propre à chaque site, ensuite le ciblage de ta campagne permet d'influer dans un sens ou dans l'autre mais de manière légère. Donc l'idéal serait de lancer progressivement ta campagne de mot clés en partant des mot clés les plus ciblés d'abord pour espérer les meilleurs retours financier pour ensuite élargir le champ de mot clés vers les génériques. Ensuite, comme dit plus haut par Kimberlyclarko, ton indicateur phare à regarder tous les jours est le coût d'acquisition client afin de constater les marges brutes ou de les créer le cas échéant. Concernant les positions, les plus intéressantes et celles qui drainent les 70% de trafic sur les parties sponsos sont les positions 1 à 3, ensuite ca chutent ... mais le moindre volume peut créer des demandes plus qualifiés, donc de meilleurs retours .. Comme tu le vois, tu seras le seul maître de ta campagne
  7. Bonjour c.klouchi, Aucune inquiètude à avoir du côté des référenceurs pros, ils utilisent déjà tous ce genre de moulinette C'est même plutôt courageux de présenter un tel outil publiquement puisque bien évidemment, tu t'exposes à de nombreuses critiques qui devraient ne pas tarder je pense .. Je n'ai pas encore essayé l'outil mais une chose me dérange d'ores et déjà, ces pages sont hébergées chez toi dans le dossier approprié. Ce genre de page est plutôt utile dans un premier temps mais à condition qu'elle soit hébergé sur le nom de domaine du site à référencer. Pourquoi alors ne pas, à la fin de la génération, proposé aux webmasters de télécharger ces 10 pages générées via un fichier zip compressé par exemple ? Ca serait intéressant aussi que tu montres quelques sites utilisant ton outil et pour lesquelles les positions atteintes soient honorables.
  8. Le probleme de Iliad/Free .. c'est que ca fait quelques temps qu'ils s'amusent à crawler les sites avec des hosts de type 'crawl118.dir.com', donc une ip bien à eux .. : mais avec l'UA Googlebot .. Je sais pas ce qu'il cherche à faire, mais c'est pas génial quand meme ...
  9. Et une nouvelle interface de gestion des campagnes avec de nouvelles fonctionnalités .. enfin !!
  10. Le communiqué de presse vient de tomber à l'instant : http://fr.espotting.com/info/mivapressreleaseFR.asp Ca bouge enfin chez Espotting et FindWhat !!
  11. En tous les cas, ca fait bientôt 1 mois que les DC sont aussi instables et je me dis qu'à la fin de cet énorme update, va y avoir de grosses surprises tout autant que des gros chamboulements. A part être sur les starting blocks pour préparer l'aprés-Bourbon, on ne peut, en plus, pas faire grand chose .. !!
  12. Marrant çà, j'observe aussi de furieux crawl de mes sites de la part des bots Ask Jeeves en ce moment. Ca a commencé y'a 8 jours environ. Le challenger Google se réveille ?
  13. Si l'applet est trop difficile à installer, je te recommande le réseau IRC #Epiknet (irc.epiknet.org) et leur applet Java 200% fonctionnelle et éprouvée sur http://www.asterochat.com/ . Seul souci, il va te falloir déplacer ton chan sur Epiknet.
  14. Pour ma part, le simple attribut lang="fr" ou lang="en" a suffit à me faire gagner une dizaine de places (oui oui) à l'époque du concours de positionnement mangeur de cigogne et encore il y a quelques temps pour seraphim proudleduck .. Donc il ne faut pas se servir de la balise <meta language qui elle effectivement ne sert à rien, mais bien d'un <html lang="fr"> pour améliorer son référencement sur des requêtes francophones ou "en" pour les anglophones. N'hésites pas à tester, les résultats sont édifiants
  15. Bonjour Julien, Pourrais tu préciser au niveau technique comment Akamai constitue leur serveur relais ? Avec cette explication, je pourrais te répondre plus précisément, car à priori, ca reste du load balancing, les contenus des pages crawlés par les outils de recherche sont les mêmes sur tous les serveurs relais. L'ip du 'front' permettant de répartir la charge du trafic doit être un équipement spécialisé et donc une ip fixe en permanence ? (si non, ca peut effectivement poser un souci que les contenus des pages répondent à chaque fois sur des ips différentes, encore que ca reste à prouver.) Si tu peux nous faire un petit bilan technique rapide, je complèterais mon début de réponse
  16. Génial c'est exactement ce que je cherchais, et en plus ca fait apparemment plein d'autres choses trés utiles ! Merci beaucoup Dan
  17. Bonjour, Est il possible de logger dans des access_log les variables d'un formulaire passé en POST avec Apache ? Les GET sont dans l'url, donc aucun problème, mais existe il une solution pour les valeurs passées en POST ?
  18. La mise en place d'un système n'empêche pas l'autre. Je suis carrément pour les doubles mesures afin de pouvoir identifier les provenances des écarts et de les suivre sur la durée. De cette manière, on est quasi certain de 'comprendre' comment vit et réagit le trafic d'un site.
  19. Ca dépend aussi effectivement de ce que tu trackes. Dans l'exemple que tu cites pour l'internaute qui copie une page en local et qui l'affiche une centaine de fois, mon marqueur va effectivement comptabiliser 100 affichages (et non pas visites), les logs eux sont à l'ouest pour tracker çà. Professionnellement parlant, je sais au moins que 100 affichages de pub ont été réalisés, que ce soit en local, online ou à travers un proxy m'importe peu. En terme de trafic, en plus des visiteurs uniques, la norme est souvent la PAP (Page vue avec publicité). Et comme beaucoup de modèles économiques s'appuient là dessus, même qu'en partie, le choix d'avoir un outil comptabilisant de manière précise ces affichages est amha plus judicieux pour maîtriser son retour sur investissement, ou plus simplement son modèle économique. Concernant les caches de FAI, c'est effectivement un problème. Celui que j'ai rencontré était de contrôler les positions de sites de clients en référencementà une certaine époque. Tant que le cache de Wanadoo n'était pas rafraichi, je n'avais pas les résultats et positions exactes du moment. Ce qui nous causait de gros soucis pour le reporting client et qui est quand même un comble pour un FAI proposant aussi des services de recherche. Alors effectivement, cette solution n'est pas intelligente notamment dans le cas de sites ayant des paramètres particuliers à faire passer, mais il faut savoir simplement qu'elle peut exister. La solution pour éviter ce type de mise en cache sauvage est de créer des identifiants aléatoires et unique sur une période pour être certain que les pages ou élèments de pages ne seront pas 'cachées', système largement répandu chez les sociétés d'affiliation pour réaliser leur .. tracking 100% ok, on oublie trop souvent de comprendre comment fonctionne l'outil statistique pour savoir ce qu'il mesure exactement.
  20. Merci pour les précisions Philippe, j'ai raté sa mise en place sur le .fr !
  21. Non, il n'est pas bien et de manière générale, tout référencement traité de manière automatique ou avec des outils automatiques ne sera pas performant, ca sera plutôt du domaine de l'inefficace. Par contre, là ou un tel outil devient intéressant, c'est pour le contrôle du positionnement, et pour cà, je t'orienterais vers SeeUrank de nos amis Yooda !
  22. Je rejoins Titag, les marqueurs sont plus fiables pour les raisons qu'il a indiqué. En plus, je rajouterais que vos fournisseurs d'accès pour économiser des flux de trafic énormes utilisent leurs propres serveurs de cache. Exemple, chez Wanadoo, les sites à plus fort trafic sont mis d'office en cache et rafraichies toutes les 6 heures (à l'époque ou je m'étais intéressé au problème). Là les logs ne peuvent rien traquer et pourtant les internautes font bien de la PAP à gogo. Concernant le classement et selon mon expérience : xiti pro (le meilleur outil qualité/prix/mise en place facile/tracking complexe et surtout F I A B I L I T E !) weborama gold (la version avec marqueur) ucatchit Bof bof : wysistat estat pro Inconnu pour moi : visiostat statsreport
  23. Latent semantic indexing, c'est le nom de la curiosité, j'avais fait un billet à l'époque ou Google testait çà ici. Ca marche aussi pour les requêtes print, shoes, plane, etc .. Comme tu l'as deviné, Google a introduit de la sémantique dans ses résultats et afficheen plus aussi ce qui correspond au sens de ta recherche, mais sur des mot clés dérivés. Pour l'instant, on observe ces résultats que sur le moteur US. Je ne l'ai vu nulle part ailleurs.
×
×
  • Créer...