Aller au contenu

JulienCoquet

Webmaster Régulier
  • Compteur de contenus

    93
  • Inscrit(e) le

  • Dernière visite

Messages postés par JulienCoquet

  1. Ceci n'est pas un bug.

    Il faut compter entre 48 et 72 heures pour qu'un compte GA soit disponible en termes de rapport, ce qui ne veut pas dire que les données ne soient pas enregistrées. Si le problème persiste au-delà de 72 heures, contacter Google ou un partenaire.

    Sinon, le code est bon, pas de soucis :-)

    En effet, la fonction _initData a été rapatriée dans le code de ga.js il y a un peu moins de deux mois environ.

    Cela dit, on peut très bien la laisser dans le code si vous l'y aviez déjà placé, vu qu'elle crée/appelle les cookies de campagne que si il y en a besoin.

    Voir aussi: http://webanalytics.ox2.eu/fr/google-analy...de-de-suivi-ga/

  2. Google Analytics travaille en lecture seule donc pas d'import possible.

    Google propose également Urchin, une solution logicielle d'analyse des logs, mais qui elle est payante ($3000) mais ca vaut le coup tant que l'euro est fort!

    Si questions sur Urchin, je serais heureux d'y répondre sur ce forum.

  3. pas possible malheureusement dans Google Analytics (et pas non plus de manière fiable dans d'autres outils d'ailleurs) puisque le taux de rebond est attribuable à chaque page qui sert d'arrivée (accueil ou pages de destination).

    Un autre problème propre à la mesure d'audience Web est qu'on ne peut pas 'exclure' des sessions à 0% de rebond à la capture de l'information. Un corollaire du mode de capture de l'information de navigation est la durée du temps passé sur la page où je renvoie à -http://www.webrankinfo.com/forums/viewpost_840811.htm#840651 mon post sur le sujet (sur WebRankInfo).

  4. Moi je peux voir les stats du jour :D

    J'ai aussi remarqué que les stats de mon site sont plus souvent mises à jour (avant elles létaient peut être toutes les 4-5 heures, maintenant en 1 ou 2 heures ça roule).

    Parallèlement, j'ai lancé un forum dont l'URL est sur un sous-domaine. J'ai créé un nouveau compte analytics pour ce domaine et je constate que les mises à jour sont moins fréquentes que sur mon site.

    Peut-être que Google met à jour les stats en fonction du trafic (plus le trafic est important, plus les stats sont actualisées souvent).

    Les mises à jour se font maintenant en une heure minimum. Cela dit, je vois toujours pas le réel intérêt du temps réel...

  5. Pour faire simple, les solutions serveur (via le traitement des logs) ne te permettent pas d'analyser finement la qualité de ta visite ou les informations concernant tes visiteurs et les actions qu'ils entreprennent sur un site. Le traitement des logs se fait au detriment de la performance du serveur donc sur des sites à gros volumes, il faut prendre en compte le besoin en matériel (proc, mémoire) pour effectuer le traitement proprement, en temps et en heures. C'est d'ailleurs vrai de solutions comme phpMyVisites (Piwik) qui stockent les données dans un BDD au lieu de logs mais le problème reste le même: le volume des données à traiter! Après, un système type log est très utile pour mesurer la performance brute du site (bande passante, téléchargements).

    Sur un système de marqueurs (tags) Javascript, l'exhaustivité de la visite est capturée, grâce à des cookies.

    Ce type de solution est généralement externalisée chez un tiers, tel que Google, Xiti, IndexTools, Alenty, Weborama ou que sais-je encore ;-)

    Cela dit, le gros avantage est que la collecte et le traitement des infos se fait chez le prestataire, ce qui te soulage au niveau ressource.

    Il n'existe donc pas de réponde toute prête à ta question: il faut que tu peses le pour et le contre en fonction de tes besoins réels!

    Pour information, il existe une association (la Web Analytics Association ou WAA) - que je représente au niveau France - qui promouvoit les meilleures pratiques pour la mesure d'audience des sites Web

    Le site est encore en anglais mais j'espère proposer une version française bientôt.

    http://www.webanalyticsassociation.org

    Autres ressources sur le sujet:

    http://fr.wikipedia.org/wiki/Web_Analytics - Wikipedia (par votre serviteur)

    http://webanalytics.ox2.eu/fr - Forum francophone de la WAA

    GA n'est pas performant sur les gros sites ? Perso j'utilise GA je sais pas si c'est le mieux, mais c'est celui auquel je suis le plus habitué. Les stats dans l'ensemble sont pas mal je trouve

    Après si dis "gros site" par rapport au fait justemennt que la base peut devenir volumineuse, je serais plus tenté de délégué suivant la thématique du site aussi ça peut varier.

    Personellement, je gère plusieurs sites qui font facilement entre 10 et 30 millions de pages vues par jour avec Google Analytics et ils n'ont pas bronché depuis deux ans...

    Après faut avoir les reins assez solides ;)

    Par exemple, un de mes clients favoris (hénaurme) traite tout par log+marqueur (hybride) grâce à un traitement distribué sur plusieurs serveurs.

  6. tu dois avoir une erreur de placement de _setVar puisque tu n'as pas de cookie __utmv (celui qui gère la variable personnalisée)

    Essaye de placer _setVar juste avant l'appel de _trackPageview sur une page de test puis vérifie avec Firebug ou Fiddler que le cookie est bien placé!

    Sinon, je ne peux que te conseiller la lecture de mon tutoriel à ce sujet:

    http://webanalytics.ox2.eu/2007/08/20/excl...cs-1ere-partie/

  7. une fois que tes images ont été vues une fois par tes visiteurs, elles sont en général mises en cache de ton navigateur et ne sont pas demandées au serveur par la suite et terme de "hits" pour les images.

    En revanche, pose toi la question suivante: combien de visiteurs (uniques ou non) ai-je reçu sur un mois? tu trouveras cette info dans Urchin.

    Multiplie ce nombre de visiteurs par le poids total de toutes tes images, rajoute entre 10 et 20% du nombre obtenu pour l'HTML, le CSS et le Javascript et tu obtiendras une estimation de consommation potentielle correcte.

    Quand je dis "potentielle" c'est qu'évidemment chaque visiteur ne va pas voir toutes tes images.

    Si tu vois se profiler une limitation à un horizon plus ou moins court terme, songe sérieusement à faire héberger tes images chez un site du genre PhotoBucket ou à passer chez un hébergeur qui propose plus de transfert par mois.

  8. le code utilisé n'impacte pas les rapports, c'est en majeure partie une nouvelle syntaxe pointée et des fonctions ré-aménagées

    pour la capture d'évènements, le gros avantage c'est qu'on ne gaspille plus une page vue par occurence de l'evenement comme c'est le cas actuellement

  9. Oui je sais bien et ne crains rien en fait, ce qui m'embête c'est de ne pas voir les hôtes véritables de mes visiteurs :)

    euh oui mais c'est pas dans ce rapport que tu les verra

    Le rapport 'Noms d'hôtes' sert à voir depuis quel serveur le contenu de ton site est servi

    Pour voir de quels domaines tes utilisateurs viennent, consulte le rapport "Fournisseurs d'accès"

  10. Ouha j'imagine qu'il faut être expert agréé Google Analytics pour savoir ça et qu'on peut remonter derrière le proxy :thumbup:

    à moins d'un HTTP_X_FORWARDED_FOR ou d'un équivalent côté serveur, remonter derrière le proxy de façon fiable côté client, je ne suis pas convaincu.

    Cela dit, merci pour la pub :)

    Mais pour revenir à ta question d'origine, comme dit JeanLuc, il est très probable que 2 internautes, ou plus se retrouvent avec le même user agent.

    Ce qui va vraiment changer est expliqué dans cette documentation chez Mozilla mais qui vaut aussi pour IE et autres si ma mémoire est bonne:

    http://www.mozilla.org/build/revised-user-agent-strings.html

    Les points différentiants portent sur numéros de version majeur/mineur et de plateforme puis sur les numéros de version en interne

    Dans le cas de Firefox ou d'autres logiciels, certains navigateurs font l'objet de versions quotidiennes (chez Mozilla sur: ftp://ftp.mozilla.org/pub/mozilla.org/firefox/nightly) qui ont une influence sur leur numéro de version interne.

    A chacun de déterminer l'unicité d'un navigateur via une sélection de paramètre dans la chaine user agent. ;)

    Maintenant, comme dit JeanLuc, si tu as besoin d'unicité de navigateur via user agent, tu dois avoir une idée derrière la tête

  11. Au niveau Google Analytics, tu peux tagger tes liens (en rajoutant l'instruction urchinTracker sur un évènement onClick)

    Cela dit, sir les gens font des accès directs à tes PDFs, tu ne verras rien.

    Je ne connais pas trop IIS mais avec un serveur Apache, tu peux boquer un téléchargement direct et rediriger vers une page PHP/ASP/etc qui contiendra le code de suivi.

  12. le but n'étant pas de me vanter (désolé si c'est comme çà que c'est sorti :blushing: ) mais d'illustrer que ce genre d'opérations récursives sont hyper consommatrices de ressources.

    voilà c'est tout :)

  13. Et un système de cache pour gérer un simple fil d'ariane, c'est un peu sortir un bazooka pour achever un moustique ;)

    je travaille avec des bases de données qui pèsent jusqu'à 4Go; chacun son truc, hein? ;)

    Et pour Portekoi, j'essaie de prévoir ce qui va se passer pendant l'exploitation pour limiter les dégats ;)

  14. sur de gros volumes de relations hierarchiques, on a généralement intérêt à faire appel a un fichier cache pour éviter de faire tourner la requete à chaque fois, surtout si la récursivité de la chose fait que de nombreuses requêtes sont éxécutées...

    donc en gros, on peut générer un arbre sous forme de fichier texte ou XML qui peut être traité de façon plus souple que d'éxécuter la requête à chaque fois.

    çà répond à la question?

×
×
  • Créer...