Aller au contenu

matthieudeparis

Actif
  • Compteur de contenus

    14
  • Inscrit(e) le

  • Dernière visite

Tout ce qui a été posté par matthieudeparis

  1. bonjour les user agent décrits par Wikipédia sont -ils corrects ? http://fr.wikipedia.org/wiki/User-Agent#Robots Avez vous des recommandations pour pouvoir suivre correctement les passage des moteurs via les logs ? merci
  2. bonjour _AT_Remia, pouvez-vous donner plus d'indications sur ce qui vous fait penser que vous avez été blacklisté ? merci
  3. @ Cariboo merci beaucoup, une fois de plus c'est très éclairant (ça se dit éclairant ? -) matthieu
  4. Bonjour, toutes les balises ( http://support.google.com/webmasters/bin/answer.py?hl=fr&answer=183668&topic=8476&ctx=topic) lors de la création sont des Sitemap sont elles utiles, y'en a t-il que l'on peu considérer comme "dépréciées" et d'autres à soigner particulièrement ? concernant les Sitemap vidéo, leur intérêt fait-il débat comme pour les Sitemap de site , enfant lors de l'utilisation d'un Sitemap vidéo, doit on (faut-il) déclarer des vidéos "embédées" ? Merci de vos conseils.
  5. Bonjour et merci beaucoup - un peu tardivement - pour vos éclairages. Je retiens qu'une pénalité peut être aussi algorithmique ; un filtre duplicate content ou un filtre Panda sont-ils considérés comme des pénalités à proprement dit et finalement quelle est la différence de concept entre un filtre DC et un filtre Panda ? Ce que je retiens aussi de cette aventure c'est qu'après avoir octroyé un nb important de visites à ce player sans qu'il y ait eu d'autre optimisation seo que le suivi mot pour mot des specs Google - mais aucune sur optimisation, voire optimisation - google pénaliserait ce sous-domaine : un peu comme un commerçant qui appellerait la police après vous avoir rendu trop de monnaie... Enfin le cas d'école est intéressant : comment se fait-il quaprès une pénalité un site soit encore copieusement crawlé ? merci
  6. merci beaucoup de ces éclairages précieux. Je rebondis sur la pagination : il faudrait alors trouver un système permettant aux moteurs d'accéder le plus rapidement à l'ensemble des pages ce qui supposerait tant qu'on imagine qu'un truc type Page Rank existe de ne pas lui représenter des pages qu'il connaîtrait déjà, bon il faut je retrouve un fort en thème dans mon entourage -) Je me souviens d'un jeu quand j'étais (plus) petit, il fallait trouver le nombre que l'autre joueur avait en tête entre 0 et 100 000 : on pouvait poser une question dont la réponse devait être oui ou non, la technique dont je me servais était de diviser à chaque question le nombre par deux : le nombre est -il supérieur à 50 000 ? etc -)) merci encore.
  7. Merci Ernestine, mais je me demandais surtout si il y avait un gain au profit ne pages "index" du crawl et de l'indexation par les moteurs notamment pour les sites à forte volumétrie (>500 000 pages).
  8. Bonjour, je me permets de soumettre le cas suivant (que nous avons publié dans le forum de Google) - pour vous demander vos avis. Pour info ce déclassement est intervenu brutalement entre le 22 et 25 janvier 2012. Y'a t-il eu des modifications algorithmiques connues à cette période ? S'agit-il d'une pénalisation humaine ? Merci d'avance pour vos éclairages. L'un de nos sous-domaines (http://player.qobuz.com - qui héberge un player de musique en ligne qui accompagne notre offre légale de streaming) a subi une chute brutale du trafic organique suite à un déclassement global de nos keywords. Capture d'écran de notre Google Analytics : http://cl.ly/2L0A073b0W0C3d3N0M0y (Pas de problème de tracking, la baisse est confirmée côté logs serveurs) Voici quelques informations en vrac pour essayer de cerner le problème :- notoriété, notamment dans le milieu audiophile : service légal de téléchargement et streaming de musique existant depuis 5 ans, en contrat avec les 4 majors et la majorité des labels indépendants- Aucune modification dans le Player (structure, metatags, robots.txt ou autre) le mois précédent le déclassement- Aucun warning, erreur ou message dans GWT- Le player est principalement codé en HTML5/Javascript pour le frontend, qui appelle une API JSON codée en PHP pour le backend. Nous suivons donc les spécifications de crawling AJAX de Google (http://code.google.c...cification.html) pour être indéxé.Donc par exemple, lors du crawl d'une page album (http://player.qobuz....m/0634904052065), Google va être redirigé vers une page generée en PHP (http://player.qobuz....m/0634904052065 à charger avec javascript désactivé) qui utilise la même API JSON pour récupérer et afficher les mêmes informations que voient les visiteurs qui ont du Javascript.- Par ailleurs ces informations sont affichées en suivant les specifications MicroData (http://schema.org/MusicRecording and http://schema.org/MusicPlaylist) et OpenGraph (http://ogp.me/). Exemple de parsing des richsnippets par Google qui ne montre aucune erreur : http://www.google.co...904052065&view=- Le site est toujours aussi bien crawlé (http://cl.ly/19290Z3z1w0Q192w2i0o) et indexé (http://cl.ly/023E1P0G0P3W30452p1U). Par contre, la plupart des keywords qui donnaient un positionnement en première page sont maintenant passés en 4ème page ou au-delà.- Seul le sous-domaine player.qobuz.com a été impacté, notre site principal (www) n'a subi aucun dégât SEO.
  9. bonjour, _AT_Cariboo : que voulez vous dire par rebooté ? Merci
  10. bonjour pour moi pas de redirection de http://www.autismevendeeenfance.fr/ vers http://asf85.fr/ Etes vous sur d'avoir fait le nécessaire ?
  11. bonjour, Avez vous regardé dans les sites "référents", les mots clés des moteurs de recherche si il n'y avait pas une source alimentant cette géoloc USA ?
  12. Non ne bloquez rien. regardez quelle est la source/la provenance de l'erreur - c'est parfois utile - si il vous semble que de nombreux sites pour adulte (alors que vous non) pointent vers vous, essayez par contre de comprendre pourquoi.
  13. Sans rentrer dans une polémique autour du PageRank (ou de quelque chose s'y approchant) : cela reste une méthode qui peut être utilisée : comment aller chercher très vite et aider à positionner parmi des millions de pages une requête concurrentielle, cela reste un avantage d'un calcul (très rapide) de type PageRank...
  14. bonjour, à part interdire l'indexation - ce qui est en soit une bonne chose - quel intérêt peut-il y avoir à utiliser noindex pour le référencement : par exemple sur des sites contenant de grandes catégories d'articles paginés (parlons de plusieurs milliers), finalement quel intérêt y'a t-il à partir de la page 2 d'utiliser noindex ? De toutes façons ces pages ne se positionnent jamais sur un résultat de recherche (il y a la page 1 pour cela), cela rend il le crawl plus rapide / sort d'un crawl à venir des pages peu intéressantes et dans le cas de sites à forte volumétrie permet d'allouer ce crawl aux considérées comme importantes ? Merci
×
×
  • Créer...