Jump to content

Search the Community

Showing results for tags 'referencement'.



More search options

  • Search By Tags

    Type tags separated by commas.
  • Search By Author

Content Type


Forums

  • Accueil
    • Annonces de Webmaster Hub
    • Webmaster Hub se présente
    • Les nouveaux membres se présentent
    • Revues de presse
    • Le salon de Webmaster Hub
    • La tribune de Webmaster Hub
  • Publications et Redirections
    • Référencement et Publicité
    • Droit, Finances et Administration
    • Les techniques de l'Internet
    • Noms de domaines et hébergement
    • La tribune du Hub
  • Création et exploitation de Sites Internet
    • Les langages du Net
    • Les fondations d'un site
    • Accessibilité et Ergonomie Web
    • E-commerce
    • Administration & Droit
    • Systèmes de publication
  • Promotion de Sites Internet
    • Techniques de Référencement
    • Techniques de Promotion
  • Informatique & Internet
    • PC-Gyver
    • Les Navigateurs
  • Les services de Webmaster Hub
    • Infogérance serveurs dédiés
    • Offres et demandes de prestations de service

Blogs

  • Dan's Blog
  • Blog de Webadev
  • Toulouzheing
  • Phoblog
  • boutiques
  • KaRaK
  • Nicolas Blog
  • Americas - Info
  • Spidetra Blog
  • Rat de bibliothèque
  • Une bonne blog... de Bourinho
  • Blog e-Business et Emarketing
  • La piscine
  • Vincent
  • Blog de Georges
  • Dessiner le web
  • Web shopping
  • Toulouse
  • Webmarketing, what else ?
  • SpeedAirMan's blog
  • Le Blog de Dadou
  • illustration et delires graphiques d'un infographiste...
  • paolo
  • CQJD News
  • magie

Find results in...

Find results that contain...


Date Created

  • Start

    End


Last Updated

  • Start

    End


Filter by number of...

Joined

  • Start

    End


Group


Website URL


Skype


Localisation


Société

Found 41 results

  1. Régis

    Spam Report Google

    Google Spam Report L'Official Google Webmaster Central Blog a fait une mise au point sur le Spam Report, ce 28/03/07. Google y explique comment les "Spam Report" sont exploités. 2 types de "Spam Report" Le Spam Report anonyme via ce formulaire Le Spam Report authentifié grâce aux Outils Google pour Webmasters Chacun des "Spam Report" authentifiés sont étudiés. La majorité des "Spam Report" non authentifiés sont étudiés et évalués en termes d'impact. 3 questions fréquentes sur le "Spam Report" (NB : traduction partielle et arrangée via le traducteur de Google) ** Que fait Google lors dun "Spam Report" authentifié ? Un "Spam Report" authentifié est analysé puis utilisé pour évaluer les nouveaux algorithmes de détection de spam et pour identifier des tendances du spam sur le Web. Le but étant de détecter automatiquement tous les sites effectuant ces tentatives de manipulation et s'assurer que les algorithmes classent ces sites de manière appropriée. ** Pourquoi n'y a-t-il, parfois, aucune conséquence immédiatement visible à la suite d'un "Spam Report" ? Google cherche toujours à améliorer ses algorithmes pour parer le webspam, mais nous agissons également sur différents rapports de Spam. Parfois l'action ne sera pas immédiatement évidente à un utilisateur extérieur, mais il est inutile de soumettre plusieurs fois un "Spam Report" afin que Google évalue l'URL. Il y a de différentes raisons qui pourrait expliquer une impression fausse d'userŽs qu'un rapport particulier de Spam est passé inaperçu. Voici quelques unes de ces raisons : - Google gére, déjà, la situation. Par exemple, si un site faisant dexcessif échanges de liens, fait l'objet d'un "Spam Report", il est possible que Google atténue déjà le poids de ces backlinks immérités mais que le site en question soit bien positionné pour dautres raisons et une modification dans la manière dont Google prends en compte ces backlinks nest pas immédiatement évidente aux utilisateurs. Ou bien, encore, il se peut que Google gère des pratiques comme le "keywords stuffing" correctement dans la façon de positionner les sites, et donc ne se sente pas particulièrement concerné. - Une exclusion complète des résultats de recherche de Google est, seulement, une des conséquences possibles d'un "Spam Report". Google peut donner, aussi, un carton jaune afin que le site ne puisse être trouvé dans lindex pour une courte période. Si le webmaster ignore cet avertissement, alors un carton rouge peut être donné, avec des effets plus durables. Ainsi, il est possible que Google soit déjà au courant au sujet du problème mais que Google communique avec le webmaster concerné ou que Google ai agi dune autre façon quune simple désindexation. - Parfois, la patience est la réponse, car cela prends du temps pour que les changements dans les algorithmes soient minutieusement testés ou que le PageRank soit mis à jour. - Ce peut être, également, le cas lorsque Google travaille à résoudre un problème de manière plus générale, et que Google ne soit pas disposé à agir sur une situation individuelle. - Un "Spam Report" a pu juste avoir été considéré comme injustifié. Par exemple, lorsque la motivation du "Spam Report" semble être de nuire à un concurrent direct. ** Y a-t-il un retour suite à un "Spam Report" ? Google préfére utiliser son temps à étudier les "Spam Report" et à améliorer les algorithmes mais est ouvert pour éventuellement améliorer la communication avec les utilisateurs. Liens Source Official Google Webmaster Central Blog (28/03/07) : "An update on spam reporting" [spam report] [Google] Par Régis - blog Webmaster Toulouse - Spam Report Google
  2. Régis

    Eye-tracking

    Eye-tracking En Janvier 2007, Microsoft a publié une étude sur leye-tracking "An eye-tracking study of information usage in Web search : Variations in target position and contextual snippet length. Le JDN (29/03/07) a repris cette étude et a réalisé un dossier "Comment les internautes lisent les résultats de recherche". Lecture linéaire Les internautes lisent linéairement les résultats dun moteur de recherche. En moyenne, ils lisent le premier résultat durant 2,2 secondes contre 0,2 seconde à 0,3 seconde pour le dernier. Le taux de clics est de 84 % sur les positions 1 et 2 pour être de 11% pour la 8ème position. La majorité des internautes visualisent 3 à 4 résultats et sils ne sont pas satisfait passe à la page suivante sans même cliquer sur un résultat.. La position influence surtout les recherches d'information Lorsque linternaute recherche une page précise, le taux de clic est de 78% sur la 1ére position alors quil est de 89% pour une recherche dinformation. Mais il est de 83% pour la 2nde position contre seulement 33% lors dune recherche dinformation pour atteindre 6% à la 6ème position. Cela pourrait sexpliquer par la confiance que les internautes ont dans la pertinence du classement effectué par les moteurs de recherche dans le cas de la recherche dinformation. De plus, un résultat non vu car situé trop bas dans la page va inciter les internautes à cliquer sur le premier, y compris si celui-ci n'est pas le bon. La taille du résumé Outre la position du résultat dans la page, la taille du résumé joue également un rôle important dans la visibilité des résultats ainsi que sur le taux de clics. Selon létude, sil s'agit de mettre en avant un site sur les moteurs de recherche, mieux vaut compter sur un résumé court. Alors que lorsque l'on veut mettre en avant une information, il est plus judicieux d'essayer d'obtenir sur les moteurs un résumé long. Liens Source Microsoft (01/2007) : "An eye-tracking study of information usage in Web search : Variations in target position and contextual snippet length" L'étude( format .pdf ) : "An eye-tracking study of information usage in Web search" Le JournalDuNet (29/03/07) : " Comment les internautes lisent les résultats de recherche" Définition Wikipedia ( En ) : "Eye-tracking" Définition Wikipedia ( Fr ) : "Oculométrie, eye-tracking" On en discute sur le forum Webmaster Hub - Nouvelle étude Eye-tracking Voir, aussi, cette autre étude sur le blog Webmaster Toulouse "Eye-tracking et recherche Web" [eye-tracking] [internautes] [moteur de recherche] Par Régis - blog Webmaster Toulouse
  3. Référencement et arnaques Selon un article du JDN "Le cloaking nest plus qu'un lointain souvenir. (Mais) de nouvelles techniques ont pris le relais : faux contenus, splog, liens massifs". A l'heure du développement durable et de l'environnement, le "référencement propre et durable" aurait pris le pas (?) sur les techniques de cloaking et des pages satellites. Apparemment moins nombreux, les blacks hats du référencement emploieraient de nouvelles techniques en utilisant "à l'excès les critères des moteurs pour arriver à se positionner" grâce, essentiellement, au contenu. Une des illustrations en est l'utilisation massive de mots clés, une autre, le splog (blog satellite) : "les détenteurs d'un site créent un ou plusieurs blogs sur un domaine particulier, ajoutent divers contenus ciblés et créent des liens vers leur propre site." Mais les spécialistes du référencement sont unanimes : les cas de sites professionnels utilisant des techniques spammantes sont désormais rares. Nota : dans un billet récent Matt Cutts (10/03/07) suggère aux webmasters d'empêcher l'indexation (robots.txt : Disallow) des pages de résultats pour réduire l'impact de ces pages dans l'index de Google. Et Kaspar "Official Google Webmaster Central Blog" (16/03/07), fait allusion aux pages créées artificiellement grâce, par exemple, aux sources de Wikipedia ou l'ODP. Liaison ou corrélation ? Nous avons vu, il y a quelques temps, plusieurs billets sur les blogs ou des posts sur les forums, justifier expliquer que le Black Hat SEO était parfois utile voire indispensable. Le plus souvent en raison des techniques, de la construction des sites : mais ne peut-on pas envisager de construire le site autrement ? En tout cas, Google semble décidé, du moins dans les mots, à effectuer un ménage... Par les temps qui courent, les Black Hat réfenceurs auraient-ils intérêt à se montrer plus "white" ? Le noir ne serait pas si noir... bientôt, nous allons sûrement lire que le blanc n'est pas si blanc... : ce sera le ying / yang du référenceur. Syllogisme ? Un c'hat est un c'hat. Donc, un c'hat blanc est un c'hat blanc Et un c'hat noir est un c'hat noir. Liens Source : JournalDuNet (16/03/2007) - "Les nouvelles arnaques au référencement" Matt Cutts (Google, 10/03/07) - "Search results in search results" Kaspar (Google, 16/03/07) - "Site content and use of web catalogues" JournalDuNet (13/03/2007) - "Google contre les pages de résultats dans ses résultats" Blog - Détecter le cloaking IP Publication Webmaster Hub - Le référencement une affaire de professionnel ? Discussion On en discute sur le Forum Webmaster Hub - Référencement et tricherie [référencement ] [cloaking ] [splog] [blog] [webmaster] Par Régis - blog Webmaster Toulouse
  4. Eye-tracking et recherche Web : acheteurs et chercheurs d'info lisent différemment Une étude de lisibilité optimale ( oculométrie, eye-tracking ), sur la lecture d'un résultat de recherche, démontre que les internautes effectuant des recherches avec l'intention d'acheter ont des habitudes de visualisation différentes de celles des internautes cherchant de l'information. Cette étude "Checkit Eye-tracking Research Report" menée par De Vos & Jansen Market Research et Search Engine Mediabureau Checkit a été effectuée sur 5 moteurs de recherche : Google, MSN Search Live, Ilse, Lycos et Kobala. Les 50 participants devaient rechercher 5 produits et services : - un billet d'avion - une assurance auto - une voiture d'occasion - un prêt pour une rénovation - un lecteur MP3. La moitié des répondants devait trouver de l'information sur les produits et services alors que l'autre moitié devait avoir l'intention de les acheter. Conclusions de cette étude d'eye-tracking Les acheteurs visualisent plus de résultats de recherche (10) et le font plus longuement (11,4 secondes). En outre, ils se concentrent davantage sur les noms de marques qui leur sont familiers. 96% visualisent les (trois) premiers résultats de recherche sponsorisés. 98 % visualisent les résultats de recherche organiques (issus de l'index du moteur). Les consommateurs visualisent un résultat de recherche pendant 1,1 seconde. 31% visualisent les résultats de recherche sponsorisés situés à droite. Les chercheurs d'informations visualisent moins de résultats de recherche (8) et le font plus rapidement (9,4 secondes). En outre, ils accordent plus d'attention au contenu qu'aux noms de marques. Recommandations de marketing pour les moteurs de recherche Assurez-vous que votre site Web est en position prédominante dans les résultats de recherche. Votre site Web attirera davantage l'attention, et le contenu des résultats de recherche sera considéré comme pertinent et d'actualité. Essayez de vous situer en position prédominante dans les résultats de recherche organiques parce que ces résultats seront visualisés plus longuement et plus souvent par les consommateurs. Exploitez les éléments suivants : les noms de marques et de sites Web connus et sérieux, la description de fonctionnalités Web intéressantes, l'indication des prix, la répétition de mots clés et la mention de la diversité des produits offerts sur un site Web. Ces éléments sont les raisons pour lesquelles les consommateurs cliqueront sur un lien. N'utilisez pas de lettres majuscules, de publicité tapageuse et de points d'exclamation, car ils ont la réputation d'être agaçants. Liens Source Checkit (22/02/2007) : "Buyers and information searchers view search results differently" L'étude( format .pdf ) : "Checkit Eye-tracking Research Report" Définition Wikipedia ( En ) : "Eye-tracking" Définition Wikipedia ( Fr ) : "Oculométrie, eye-tracking" Voir, aussi, cette autre étude sur le blog Webmaster Toulouse "Eye-tracking" On en discute sur le forum Webmaster Hub - Eye-tracking et recherche Web [eye-tracking] [oculométrie] Par Régis - blog Webmaster Toulouse - Eye-tracking et recherche Web
  5. La limite des mots-clefs et le web sémantique Selon Nova Spivack, "à mesure que le web va devenir plus important et plus complexe, la productivité de la recherche par mots-clefs va rapidement décroître. Le langage naturel, sil devrait être un meilleur moyen de chercher linformation, risque également de sappauvrir avec le temps, parce que comme les mots-clefs, il ne peut pas vraiment voir ou utiliser la structure de linformation." Selon lui, la productivité des moteurs de recherche va stagner avant de décliner, car le web va continuer à croître en taille et en complexité. Liens Source Nova Spivack (01/03/07) : "Diagram: Beyond Keyword (and Natural Language) Search" Vu sur InternetActu (08/03/07) : "La limite des mots-clefs" On en discute sur le forum Webmaster Hub, la limite des mots-clefs et web sémantique [mots-clefs] [langage] [web] Par Régis - blog Webmaster Toulouse
  6. User-agent cloaking et IP cloaking (Détecter le cloaking) Selon le JDN, le cloaking est une "technique consistant à présenter aux moteurs de recherche des pages différentes de celles que l'on affiche pour les internautes." L'intérêt du cloaking est, le plus souvent, d'améliorer le positionnement d'une page par rapport à celui de la page "non cloakée". Le cloaking s'appuie soit sur le USER-AGENT (User-agent cloaking), soit sur l'adresse IP du spider (IP cloaking). Détecter le cloaking Cloaking sur USER-AGENT : Si vous utilisez Firefox, l'extension User Agent Switcher permet facilement de détecter le "user-agent cloaking" en changeant la chaine d'identification User Agent du navigateur (par exemple en "Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)"). Si vous utilisez Internet Explorer, alors visitez le site WannaBrowser pour tester online. Cloaking sur IP : L'IP cloaking est plus difficile à détecter, une astuce consiste à utiliser Google Analytics. Cette technique est expliquée sur le forum Webmaster HUB - Détecter facilement une page cloakée. Liens Source JournalDuNet : "Cloaking" Source WannaBrowser L'extension Firefox User Agent Switcher Discussion sur le forum Webmaster HUB - Détecter le cloaking IP Liste d'extensions Firefox [User-agent cloaking] [IP cloaking] Par Régis - blog Webmaster Toulouse - Détecter le cloaking IP
  7. Régis

    Trusted feed

    Trusted feed Le Trusted feed ou paid inclusion, est une technique de référencement payant sur certains moteurs de recherche. Le Trusted feed "permet en particulier de référencer du contenu difficile à indexer de manière naturelle, tel le contenu des bases de données, les pages maintenues par des systèmes de gestion de contenu ou les pages conçues en Flash." "Les résultats d'un référencement via le Trusted Feed apparaissent dans la partie "naturelle" du moteur" mais les visites sont facturées aux clics générés. Tous les moteurs ne proposent pas cette technique : Google ne le permet pas car cela va à l'encontre de "son éthique et de son business model avec les Adwords qui génèrent 98% de ses revenus". Liens Source 1ere-position (23/02/2007) : "Trusted Feed : Droit au Spam et publicité déguisée" Source JournalDuNet (21/02/2007) : "Le Trusted feed : un référencement basé sur la confiance" [trusted feed] [référencement] Par Régis - blog Webmaster Toulouse
  8. Les fautes d'orthographe et le référencement "Les fautes d'orthographe peuvent représenter une réelle opportunité de trafic ciblé pour certains sites. Des erreurs de frappe au langage SMS, la palette des variantes à intégrer est large." Les types de fautes les règles orthographiques les fautes culturelles les erreurs de frappe au clavier l'écriture de marque et l'écriture géographique Est-il toutefois rationnel de se positionner sur des fautes ? "Toutes les fautes ne méritent pas d'être exploitées. Il faut nécessairement tenir compte de la récurrence de la faute et du potentiel de taux de transformation". Comment se positionner sur ces requêtes ayant des fautes ? Intégration dans le contenu. Cependant la page contenant la faute ne devra pas être mis en avant, elle pourra être accessible via le plan du site. Créer des liens dans des annuaires avec un anchortext possédant la faute. Liens Source JournalDuNet (23/02/2007) : "Les fautes d'orthographe au service du référencement" On en discute sur le forum Webmaster Hub - Fautes d'orthographe et référencement [fautes ] [référencement] Par Régis 26/02/2007]
  9. Long tail (longue traîne) et référencement La longue traîne (de l'anglais Long Tail) qualifie l'ensemble des articles qui se vendent en proportion réduite mais dont la somme des ventes peut dépasser la vente des produits les plus vendus. Appliqué au référencement : "le trafic issu de la somme des mots clés de la longue traîne (long tail) dépasse le total des apports des mots clés les plus performants." Pour le référencement, il faut ne pas se limiter à une liste précise de mots clés mais rechercher les mots clés liés au cur de l'activité principale. De même, le positionnement sur les mots génériques doit être utilisé avec parcimonie. Un mot clé générique demande un investissement poussé pour un retour sur investissement plutôt faible, les mots clés de long tail (longue traîne) sont, eux, spécifiques et ciblés. En résumé : "En favorisant la long tail, tout le contenu du site est mis en valeur". Liens Source JournalDuNet (16/02/2007) : "L'effet long tail appliqué au référencement" On en discute sur le forum Webmaster Hub : Longue traîne ! Définition Wikipedia : "Longue traîne" Définition Wikipedia : "The long tail" [long tail] [longue traîne] [référencement] [mots clé] Régis - blog Webmaster Toulouse - Long tail
  10. Requêtes en majorité de 2 mots clefs Selon une étude du 10/02/07, la majorité des requêtes sur les moteurs de recherche seraient de 2 mots clefs pour les 10 requêtes les plus souvent effectuées. Ces statistiques se basent sur l'analyse de 2 millions de visites/jour et pour 100 pays différents. 2 mots......28,38% 3 mots......27,15% 4 mots......16,42% 1 mot.......13,48% 5 mots......8,03% 6 mots......3,67% 7 mots......1,63% 8 mots......0,73% 9 mots......0,34% 10 mots.....0,16% Liens Source Rankstat : "Most people use 2 word phrases in search engines" Vu sur Abondance [mots clefs] [requêtes] [statistiques] Par Régis [12/02/2007]
  11. Régis

    Backlinks Google

    Backlinks et Google Pour analyser nos backlinks dans Google, on connaissait la commande "link:" peu exhaustive. Pour avoir une meilleure idée de nos backlinks, nous utilisions, aussi, la syntaxe "linkdomain:" de Yahoo!. Google nous propose, maintenant, une nouvelle fonctionnalité "liens" dans les Outils pour webmasters (notamment Google Sitemaps). Pour chacune de vos pages, vous pouvez accéder à la liste des backlinks pointants vers celle-ci. Google a annoncé cette nouvelle fonctionnalité le 05/02/07 : Discover your links. Toutefois Matt Cutts (Google provides backlink tool for site owners, 05/02/07) précise que cet outil ne donne pas pour autant 100% des backlinks. Discussion sur Webmaster Hub - Nouvelle fonction Google pour connaître ses liens [Google] [Backlinks] Par Régis [07/02/2007]
  12. Parmi les bonnes résolutions de la rentrée, n'oubliez pas d'ajouter votre site dans l'annuaire généraliste kiwoui. Vous y trouverez surement une rubrique qui vous intéressera parmi les nombreuses existantes (ex: agences immobilières ou télé-réalité) Si une rubrique n'existe pas, n'hesitez pas a la demander (même les concours seo sont acceptés et ont leur rubrique dédiée comme pour le loupanthère) Les derniers sites listés sont affichés sur la home, qui sera enrichie dès que possible (En fait, dès que j'aurais le temps de bosser sur quelques idées sympas... Cependant la rentrée scolaire n'est pas évidente mais c'est une autre histoire!) Sinon est-ce que vous êtes au courant qu'un nouveau blog sympa sur le référencement s'est ouvert il y a peu? Référencement, SEO, SEM, web marketing... Best Viewed With Googlebot (BVWG) vous dévoile les secrets de la visibilité dans Google et les autres outils de recherche.
  13. Vincent

    Les annuaires

    Petite note pour expliquer comment trouver des annuaires où référencer son site : Listes d'annuaires Pour commencer efficace, voici 3 sites qui recensent les annuaires intéressants pour référencer votre site listes des annuaires sans liens de retour annuaire info (attention méfiez vous, ne mettez pas de critère trop restrictif dans la selection, car les infos peuvent ne pas être justes.) le repertoire [*]critères d'un bon annuaire Pour rappel, on considère qu'un annuaire est bon pour votre référencement si: il fait des liens en dur le lien de retour est facultatif la gestion est attentive et sérieuse (visitez quelques pages de l'annuaire pour vous faire une idée, ex: Kiwoui, les pages du Hub sont sérieux) pas trop du publicité, pas trop de sites par page [*]Trouver un annuaire a thème là, le plus rapide est de visiter un portail sur le thème et de chercher des liens vers un éventuel annuaire ou directement taper la requete qui vous intéresse sur google avec le mot 'annuaire' dedans. exemple : des annuaires pour la piscine (coucou Lafleur), ou encore pour la littérature ou enfin annuaire gironde Une autre méthode est d'espionner le référencement d'un de vos concurrents (exemple tapez linkdomain:siteconcurrent.com dans msn) et de vous y inscrire sur toutes les pages des annuaires comportant votre concurrent )
  14. Le référencement évolue au fil du temps qui passe. Mais voilà quelques nouvelles fraiches pour ce milieu d'année 2006 avec les vidéos de Matt Cuts. Comme j'ai trouvé le billet de Jean-Luc très bien fait: clair, précis, je vous invite a lire son résumé des vidéos et d'appliquer ces quelques lignes qui sont en fait un condensé de bon sens. Important, et a ne pas oublier dans la checklist!
  15. Optimisation de sites Afin de remettre un prix à des sites candidats, une étude sur leur optimisation a été menée. L'auteur nous en donne quelques statistiques : >> Le billet (14/06/2006) d'O.Andrieu : Je Veux Aider... à l'optimisation des sites web !
  16. Contrairement ce que beaucoup de gens peuvent penser, lextension dun nom de domaine peut avoir une importance au niveau du référencement. 2 types dextension : Les sites possédant un nom de domaine avec une extension qui ne sont pas lié à un pays (comme .com, .org, .net, .info,...) seront lié au « pays de lhébergeur ». Donc si ces sites sont héberger sur un serveur français (donc possédant une ip française), ceux-ci seront considérés comme des sites français et apparaîtront dans les résultats de google Pages : France. Les sites avec un nom de domaine qui a une extension dun pays auront comme pays, le pays de lextension et cela quelque soit la provenance de ladresse ip du serveur. Par exemple si un site avec un nom de domaine en .be est héberger en France, il sera quand même considéré comme un site belge et apparaîtra dans les résultats de google Pages : Belgique mais pas dans google Pages : France.
×
×
  • Create New...