Aller au contenu

matthieudeparis

Actif
  • Compteur de contenus

    14
  • Inscrit(e) le

  • Dernière visite

Messages postés par matthieudeparis

  1. Bonjour,

    toutes les balises ( http://support.google.com/webmasters/bin/answer.py?hl=fr&answer=183668&topic=8476&ctx=topic) lors de la création sont des Sitemap sont elles utiles, y'en a t-il que l'on peu considérer comme "dépréciées" et d'autres à soigner particulièrement ?

    concernant les Sitemap vidéo, leur intérêt fait-il débat comme pour les Sitemap de site , enfant lors de l'utilisation d'un Sitemap vidéo, doit on (faut-il) déclarer des vidéos "embédées" ?

    Merci de vos conseils.

  2. Bonjour

    et merci beaucoup - un peu tardivement - pour vos éclairages.

    Je retiens qu'une pénalité peut être aussi algorithmique ; un filtre duplicate content ou un filtre Panda sont-ils considérés comme des pénalités à proprement dit et finalement quelle est la différence de concept entre un filtre DC et un filtre Panda ?

    Ce que je retiens aussi de cette aventure c'est qu'après avoir octroyé un nb important de visites à ce player sans qu'il y ait eu d'autre optimisation seo que le suivi mot pour mot des specs Google - mais aucune sur optimisation, voire optimisation - google pénaliserait ce sous-domaine : un peu comme un commerçant qui appellerait la police après vous avoir rendu trop de monnaie...

    Enfin le cas d'école est intéressant : comment se fait-il quaprès une pénalité un site soit encore copieusement crawlé ?

    merci

  3. merci beaucoup de ces éclairages précieux.

    Je rebondis sur la pagination : il faudrait alors trouver un système permettant aux moteurs d'accéder le plus rapidement à l'ensemble des pages ce qui supposerait tant qu'on imagine qu'un truc type Page Rank existe de ne pas lui représenter des pages qu'il connaîtrait déjà, bon il faut je retrouve un fort en thème dans mon entourage -) Je me souviens d'un jeu quand j'étais (plus) petit, il fallait trouver le nombre que l'autre joueur avait en tête entre 0 et 100 000 : on pouvait poser une question dont la réponse devait être oui ou non, la technique dont je me servais était de diviser à chaque question le nombre par deux : le nombre est -il supérieur à 50 000 ?

    etc -))

    merci encore.

  4. Bonjour,

    je me permets de soumettre le cas suivant (que nous avons publié dans le forum de Google) - pour vous demander vos avis.

    Pour info ce déclassement est intervenu brutalement entre le 22 et 25 janvier 2012. Y'a t-il eu des modifications algorithmiques connues à cette période ? S'agit-il d'une pénalisation humaine ?

    Merci d'avance pour vos éclairages.

    L'un de nos sous-domaines (http://player.qobuz.com - qui héberge un player de musique en ligne qui accompagne notre offre légale de streaming) a subi une chute brutale du trafic organique suite à un déclassement global de nos keywords. Capture d'écran de notre Google Analytics : http://cl.ly/2L0A073b0W0C3d3N0M0y (Pas de problème de tracking, la baisse est confirmée côté logs serveurs) Voici quelques informations en vrac pour essayer de cerner le problème :- notoriété, notamment dans le milieu audiophile : service légal de téléchargement et streaming de musique existant depuis 5 ans, en contrat avec les 4 majors et la majorité des labels indépendants- Aucune modification dans le Player (structure, metatags, robots.txt ou autre) le mois précédent le déclassement- Aucun warning, erreur ou message dans GWT- Le player est principalement codé en HTML5/Javascript pour le frontend, qui appelle une API JSON codée en PHP pour le backend. Nous suivons donc les spécifications de crawling AJAX de Google (http://code.google.c...cification.html) pour être indéxé.Donc par exemple, lors du crawl d'une page album (http://player.qobuz....m/0634904052065), Google va être redirigé vers une page generée en PHP (http://player.qobuz....m/0634904052065 à charger avec javascript désactivé) qui utilise la même API JSON pour récupérer et afficher les mêmes informations que voient les visiteurs qui ont du Javascript.- Par ailleurs ces informations sont affichées en suivant les specifications MicroData (http://schema.org/MusicRecording and http://schema.org/MusicPlaylist) et OpenGraph (http://ogp.me/). Exemple de parsing des richsnippets par Google qui ne montre aucune erreur : http://www.google.co...904052065&view=- Le site est toujours aussi bien crawlé (http://cl.ly/19290Z3z1w0Q192w2i0o) et indexé (http://cl.ly/023E1P0G0P3W30452p1U). Par contre, la plupart des keywords qui donnaient un positionnement en première page sont maintenant passés en 4ème page ou au-delà.- Seul le sous-domaine player.qobuz.com a été impacté, notre site principal (www) n'a subi aucun dégât SEO.

  5. Sans rentrer dans une polémique autour du PageRank (ou de quelque chose s'y approchant) : cela reste une méthode qui peut être utilisée : comment aller chercher très vite et aider à positionner parmi des millions de pages une requête concurrentielle, cela reste un avantage d'un calcul (très rapide) de type PageRank...

  6. bonjour,

    à part interdire l'indexation - ce qui est en soit une bonne chose - quel intérêt peut-il y avoir à utiliser noindex pour le référencement : par exemple sur des sites contenant de grandes catégories d'articles paginés (parlons de plusieurs milliers), finalement quel intérêt y'a t-il à partir de la page 2 d'utiliser noindex ?

    De toutes façons ces pages ne se positionnent jamais sur un résultat de recherche (il y a la page 1 pour cela), cela rend il le crawl plus rapide / sort d'un crawl à venir des pages peu intéressantes et dans le cas de sites à forte volumétrie permet d'allouer ce crawl aux considérées comme importantes ?

    Merci

×
×
  • Créer...