Jump to content

thick

Membre+
  • Posts

    3093
  • Joined

  • Last visited

Everything posted by thick

  1. Je ne sais pas pour PC, mais pour mon Mac Pro, j'ai acheté un adaptateur pour l'installer à la place d'un des drives DVD.
  2. Perso, je pense que ça dépend du site. Pour un forum, blog ou site édito, c'est un énorme confort pour l'utilisateur de disposer d'une version mobile. Pour un site e-commerce, une app dédiée est plus efficace. Je suis revenu des sirènes du responsive web design. C'est un désastre pour la conversion (clic pub ou achat). De l'autre côté, ça me gave les sites édito qui poussent leur app de merde, dès qu'on se connecte via mobile. Bref, je ne crois pas que ça soit la techno qui pose problème, mais ce qu'on en fait. Remarque, ce n'est pas nouveau. En tout cas, c'est un domaine fascinant, qui est encore en friche; il faut explorer.
  3. Majestic SEO c'est le Citation Flow et Trust Flow et non le trustrank. Ce sont des concepts très intéressants. Plus d'infos => http://blog.majesticseo.com/fr/fonctionnalites/interpreter-trust-flow/
  4. Le sitemap xml n'a absolument aucun impact sur le référencement ou même l'indexation; c'est uniquement un outil de contrôle. Eventuellement, cela permet aux moteurs de découvrir des nouvelles URLs, mais cela ne va pas palier à un déficit d'architecture/maillage interne. Par contre, le sitemap HTML est toujours très utile, pourtant il est trop souvent oublié. Sinon, aucun problème pour les "gros" sites. Par contre, il faut découper le sitemap avec une limite max de 50 000 URLs et 10 Mb. Gaffe aussi à la perf pour que ça charge rapidement.
  5. Perso, hormis sortir de la Google dépendance en SEO, je fais un effort pour ne plus utiliser leurs outils. Il me reste encore Feedburner à gicler, mais je n'ai plus un besoin vital de Google pour ma vie numérique. En plus des services et outils cités, je rajoute la régie d'affiliation, Google Checkout (remplacé par Google Wallet) et surtout la fonction de téléchargement dans Google Code (vraiment WTF !!!). Il y a aussi toujours les mauvaises surprises liées à l'utilisation de l'API et l'incompréhension générale par rapport à la fermeture de Google Reader.
  6. Je ne vois pas du tout en quoi une action manuelle serait différente d'une automatique. C'est l'empreinte qu'on laisse qui importe, mais pas du tout le moyen utilisé. On peut faire à la main bien plus crade qu'en automatique...
  7. La détection du pays ou du user agent c'est le mal absolu en référencement multilingue. La bonne pratique consiste à déterminer une langue parent, qui sera affichée sur la page d'accueil. Ensuite, des drapeaux ou autres systèmes seront mis à disposition pour que l'utilisateur choisisse une autre langue enfant, s'il le souhaite. Aucune technique ne va diriger automatiquement dans une langue ou une autre. Un très bon Whiteboard Friday de Rand (SEOmoz) sur le sujet http://www.seomoz.org/blog/international-seo-where-to-host-and-how-to-target-whiteboard-friday
  8. Ca c'est Penguin et il ne s'est pas manifesté depuis 5 ou 6 mois. Cependant, il y a une infinité de pénalités et surtout causes d'une chute du positionnement. Ces 2 animaux du Google Zoo n'en sont que la trace la plus connue. Les filtres sur des thématiques de "mauvais voisinage", dont le porno fait partie, sont très aiguisés. Le site peut tout à fait être tombé sur un filtre destiné à une thématique plus rock n' roll, que son concept originel. Ensuite, le mal se répand comme la gangrène au sein du site, alors qu'il est entré par une porte en particulier.
  9. Merci pour ce tuto simple et efficace comme j'aime. Je suis loin d'être versé dans les choses du JS et pourtant j'ai tout compris
  10. Le seul moyen d'empêcher un moteur de venir fouiner (il ne respecte pas le robots.txt), c'est login+pass (avec .htpasswd par ex). A moins qu'il ne fasse un Brute Force, ça devrait freiner ses ardeurs.
  11. Les avis d'utilisateurs comptent pour beaucoup. Bien sûr, ils ne faut pas qu'ils soient bidons, mais c'est un gros facteur.
  12. D'autres sites de la même thématique ? Sinon, tu peux "interdire" certains annonceurs d'apparaître chez toi. Globalement, il faut que la page traite du sujet en corrélation avec la pub qui va s'afficher. Le système est simple et sophistiqué à la fois, mais rappelle toi que c'est seulement un algorithme qui va jauger de la pertinence, donc il faut lui faciliter le travail.
  13. Je pense que le problème est plus profond. En effet, les pubs affichées ne sont pas en corrélation avec le contenu. Je suppose qu'il n'y a pas assez d'annonceurs sur ta thématique. Même en optimisant le placement, il faut que les annonces soient intéressantes pour le visiteur.
  14. thick

    cms lent

    Je n'ai qu'un mot pour vous révolutionner la perf : https://www.varnish-cache.org/
  15. Arf je perds mes reflèxes de SEO en oubliant de faire le lien :-D Merci Dan. Ce que j'exprimais en privé avec Arlette est que Qwant s'est retrouvé dans une situation délicate. D'un côté, faut lancer le moteur pour engranger de la data, mais de l'autre c'est encore plus qu'imparfait. D'où les critiques de ressemblance flagrante avec les résultats de Bing. Le pire a été le traitement par dessus la jambe des journalistes qui se sont contentés d'annoncer un Google Killer. Puis certains blogueurs se sont empressés de fusiller le bouzin, sans même chercher à comprendre les principes de base de construction d'un moteur ou d'un index. Pourtant, Google fait exactement la même chose. Récemment avec les micro-formats ou pire avec le Knowledge Graph, on voit bien que c'est pourri au départ dans le seul but d'acquérir de la data, qui permettra d'affiner les algos. Peut-être que j'ai donné l'impression d'être "pro-Qwant" dans l'itw, mais ma volonté était surtout de contrer les fausses accusations et mauvaises interprétations. Le sentiment que je voudrais véhiculer est de laisser murir ce projet, qui peut présenter des concepts intéressants. Encore une fois, ne cherchez pas le Google Killer !
  16. Tu peux faire un hyperlien sans souci. C'est une coquille de CGU qui va disparaître. Ce pauvre Qwant en a pris plein la tronche pour pas grand chose. Si vous écoutez l'interview du DG que je viens de publier, il faut revoir les jugements trop hâtifs.
  17. Je vois bien la ville de dijon en premier résultat. Entre la personnalisation, le Round Robin, etc. les résultats sont plus volatiles en fonction des utilisateurs.
  18. Tu ne peux pas bloquer une partie de page avec le robots.txt. Leur préco est franchement débile... C'est une page entière ou un repértoire qui sera interdit. Les liens d'affiliation ne sont pas considérés comme "achetés". Le problème de fond est que Google n'aime pas les sites bardés de pubs et d'affil. Avant tout, il faut donner une certaine valeur ajoutée. Ensuite, pas de problème à coller quelques pubs et autres, mais ça peut froisser si le site se contente de racoler avec du contenu bas de gamme, puis de faire cliquer au plus vite sur des pubs.
  19. En passant, les en-têtes http sont correctes ? http://www.webconfs.com/http-header-check.php Cela peut arriver qu'un noindex se glisse par là.
  20. Allow ne fait pas partie du protocole robots.txt Cependant, Google semble l'admettre. Tout de même, mieux vaut mettre : User-Agent: * Disallow: M'enfin bon, ça n'empêche pas un fichier d'être accessible ou pas.
  21. C'est dingue car j'ai combattu l'adoration pour le PR pendant des années, notamment sur WMH. Aujourd'hui, je me sens obligé de freiner les élans de flinguage contre l'indice de popularité Google. Mettez le à sa place. C'est à dire qu'il s'agit de la couche originelle des algorithmes du moteur. Il fait partie intégrante du calcul, permettant d'établir la pertinence d'une page. Le PR est un facteur parmi plusieurs centaines à prendre en compte, mais son seul intérêt n'est pas de "flatter l'égo". Par dessous tout, travaillez vos liens dans des thématiques connexes, sans regard pour le PR. Cependant, ne pensez pas que le PR réel (pas celui de la Toolbar) n'est qu'un gadget. Encore une fois, c'est un facteur à intégrer. Bon sang, les gens qui s'intéressent au référencement vont d'une extrème à l'autre trop facilement.
  22. C'est parce que l'utilisation du logiciel n'est pas maîtrisée. Faire à la main une multitude de remix d'une description d'annuaire me paraît absurde. Seulement, c'est vrai que la création d'un master spin cohérent demande aussi du travail. Comme je disais juste avant, il n'existe pas de solution "press the button". Par contre, faut arrêter de croire que l'automatisme est forcément un truc de bourrin. Au contraire, bien mené, cela permet de s'affranchir de tâches répétitives et abrutissantes. "Si un idiot peut le faire, un script doit le faire".
  23. Tu peux créer une filiale française de la société algérienne, mais il n'y a pas de contre-indication à facturer depuis l'Algérie vers la France. Pour la question sur le compte US, il existe effectivement une méthode, mais c'est totalement borderline et je la recommande pas du tout.
  24. J'utilise Ogone. C'est un must. Paypal est aussi une option, qui représente 30% des transactions.
  25. Il ne faut pas voir le hosting comme un coût, mais comme un atout. Les prix et les solutions que vous citez ne sont pas plausibles pour le trafic suggéré. A partir d'un certain moment, faut arrêter de rêver car le prix de la performance serveur n'est pas plausible avec vos solutions. Dan sera mieux placé que moi pour en parler, mais à moins de 300€/mois, je ne prends pas un serveur au sérieux pour un site avec une certaine ambition de trafic et performance.
×
×
  • Create New...