Aller au contenu

Djames-Allen

Hubmaster
  • Compteur de contenus

    384
  • Inscrit(e) le

  • Dernière visite

Tout ce qui a été posté par Djames-Allen

  1. Salut Tchinkatchuk, Pour les redirections je pense aussi que c'est faisable via une extension maison ou un script sur le htaccess. mais le gros probleme c'est que je ne connais pas du tout typo3. J'ai commencé le tuto je trouve que c'est pas du tout intuitif comparé à d'autres cms pour installer la réécriture d''url. Par exemple comment connaitre la page root id ? C'est celle de l'arborescence du backoffice ou du frontoffice car suivant que l'on se met partie public ou privée du site ce ne sera pas pareil. Sans compter que la création du fichier realurl_conf.php m'a l'air assez périlleuse, je pense qu'il aurais été plus logique de livrer le fichier standard config est de spécifié via des lignes de codes quelles lignes devrait etre éditer. Merci
  2. hello captain torche Un grand merci pour tes conseils et le lien pour le tuto. Je suis d'accord que c'est suicidaire malheureusement je n'ai pas bien le choix, je suis obligé de mettre en place la réécriture. A++
  3. Salut le Hub, Je suis entrain de découvrir un nouveau CMS Typo3 sur un site ou je dois mettre en place de l'url rewriting mais je ne vois pas par quel bout commencer. Outre la complexité du CMS, j'ai plus de 40 000 pages d'indexé dans google. Sur ce site j'ai un plugin d'installer RealUrl mais il ne semble pas activé car les urls sont toutes sous la forme index.php?id=Nom_De_La_Rubrique. Est ce que l'un d'entre vous connaitrait Typo3 et la récriture d'url sur ce cms. Car je ne vois pas par ou commencer et j'aurais besoin juste de quelques tuyaux, conseils ou de liens vers des tutos. Je vous remercie d'avance pour votre aide. Cdlt
  4. J'ai pas pour habitude de reprendre les citations des membres du hub comme sur d'autres forums. Mais la je tenais à dire un grand merci à Patrick Pour cette intervention qui fait du bien à lire. Et qui sort du discours habituel que l'on entend en agence ou dans le cercle des référenceurs. Mais le problème dans ce métier de référenceur c'est qu'en général les gens se la pète énormément juste parce qu'il ont réussit à positionner un site premier sur google. Oh mon dieu quel exploit surtout sur un kw qui n'a aucun sens et qui ne sera jamais tapé... Et pour tant j'ai connu pas mal d'autres domaines d'activités ou les gens gagnait bien plus que dans ce métier mais restait quand même un minimum avec les pieds sur terre!!!
  5. Pour communiquer est atteindre une cible, Facebook, Youtube et Twitter. Je les cite dans un ordre relatif à ton secteur et suivant le potentiel visite de ces sites. Il faut savoir vivre avec son temps et ces outils sociaux te permettront de communiquer autour de ton images de marque. Pour le Ref je rejoins ce que dit Magicoyo, le ref ne fait pas tout loin de là, et il faut toujours savoir se retenir en terme d'optimisation et ne pas dépasser la limite de suroptimisation!!!
  6. Kioob, Je voudrais te dire un grand merci. Le site est stable sous firefox, plus de bug et les ralentissements sont raisonnables. J'ai remis le htacces comme il etait avant l'installation du plugin. Tout est nikel, je tiens à te dire un grand merci pour ton aide précieuse. Je vais me rendre sur le forum de Quickcache est leur dire que le plugin souffre d'un bug, ca pourrait servir à d'autres. Encore merci Kioob passe une bonne soirée Oui désolé c'est le 3eme site en signature Enfin, concernant les lenteurs ca reste raisonnable je pense... Je ne sais pas trop car je n'ai pas trop de recul par rapport à d'autres sites web
  7. Merci Kioob, pour tes indications. Je viens d'y rajouter à l'intérieur de la fonction comme ceci : if (strstr($foundETag, $myETag)) { ini_set('zlib.output_compression', false); // Not modified! if(stristr($_SERVER["SERVER_SOFTWARE"], "microsoft")) { // IIS has already sent a HTTP/1.1 200 by this stage for // some strange reason ini_set('zlib.output_compression', false); header("Status: 304 Not Modified"); } else { if ( $QUICKCACHE_ISCGI ) { ini_set('zlib.output_compression', false); header('Status: 304 Not Modified'); } else { ini_set('zlib.output_compression', false); header('HTTP/1.0 304'); } } Ca fonctionne je n'ai pas eu de fichier proposé au téléchargement mais par contre ca rame un peu... Au niveau du htacces j'ai enlevé SetEnv nokeepalive mais par contre on avait mis en place avec un ami des indications pour mozilla je ne sais pas si ca peut aider ou pas à corriger le beug. ## enable resulting html compression #php_flag zlib.output_compression on ############################################ ## enable apache served files compression ## http://developer.yahoo.com/performance/rules.html#gzip # Insert filter SetOutputFilter DEFLATE # Netscape 4.x has some problems… BrowserMatch ^Mozilla/4 gzip-only-text/html # Netscape 4.06-4.08 have some more problems BrowserMatch ^Mozilla/4\.0[678] no-gzip # MSIE masquerades as Netscape, but it is fine BrowserMatch \bMSIE !no-gzip !gzip-only-text/html # Don’t compress images SetEnvIfNoCase Request_URI \.(?:gif|jpe?g|png)$ no-gzip dont-vary # Make sure proxies don’t deliver the wrong content Header append Vary User-Agent env=!dont-vary Ceci aussi je l'ai supprimé du htaccess qui est revenu comme il était avant l'installation de Quickcache. Pense tu s'il te plait que ceci aussi n'est pas nécessaire. Merci Kioob
  8. Kioob, En faite j'ai bien ce que tu me demande de rajouter mais c'est dans un else function quickcache_flush($gzdata, $datasize, $datacrc) { // First check if we can send last-modified $myETag = "\"qcd-$datacrc.$datasize\""; header("ETag: $myETag"); $foundETag = isset($_SERVER["HTTP_IF_NONE_MATCH"]) ? stripslashes($_SERVER["HTTP_IF_NONE_MATCH"]) : ""; $ret = NULL; if (strstr($foundETag, $myETag)) { // Not modified! if(stristr($_SERVER["SERVER_SOFTWARE"], "microsoft")) { // IIS has already sent a HTTP/1.1 200 by this stage for // some strange reason ini_set('zlib.output_compression', false); header("Status: 304 Not Modified"); } else { if ( $QUICKCACHE_ISCGI ) { ini_set('zlib.output_compression', false); header('Status: 304 Not Modified'); } else { ini_set('zlib.output_compression', false); header('HTTP/1.0 304'); } } } else { // Are we gzipping ? if ($GLOBALS["QUICKCACHE_USE_GZIP"]) { $ENCODING = quickcache_encoding(); if ($ENCODING) { // compressed output: set header. Need to modify, as // in some versions, the gzipped content is not what // your browser expects. header("Content-Encoding: $ENCODING"); $ret = "\x1f\x8b\x08\x00\x00\x00\x00\x00"; $ret .= substr($gzdata, 0, strlen($gzdata) - 4); $ret .= pack('V',$datacrc); $ret .= pack('V',$datasize); } else { // Darn, we need to uncompress $ret = gzuncompress($gzdata); } } else { // So content isn't gzipped either $ret=$gzdata; } } return $ret; } Tu pense que je devrais quand mm l'insérer à la fin ou au début de la fonction ? Donc je viens de tester en insérant au dessus de la fonction le code mais j'ai encore le beug par contre j'ai supprimer la mention dans le htaccess. Ce serait lié peut être ? Merci en tous cas Kioob pour le temps que tu passe à m'aider
  9. j'avais pas vu tes conseils. je m'en vais de ce pas modifier comme il faut le fichier. Merci beaucoup pour ton aide précieuse Kioob. Je te tiens au courant une fois le bug corrigé de manière plus stable
  10. Kioob, Comment te dire, un grand merci d'abord. C'était bien cela, le bug n'apparait plus et le systeme quickcache fonctionne à merveille meme sur firefox. Je te remercie sincèrement et énormément pour ton aide sans ton aide, je n'aurais peut être jamais corrigé ce beug. Pour info il faut rajouter sur le htaccess SetEnv nokeepalive pour corriger le problème et je recommande tout spécialement quickcache à ceux qui cherchent un systeme efficace. Ps: Merci à Kioob et R23o qui se reconnaitra Thks
  11. Hello Kioob, Tout d'abord merci pour ton intervention. Je vais essayer avec mes maigres connaissances de l'administration de Apache de désactiver Keepalive. Pour info, avec un pote on a réussit à bien diagnostiquer le problème. En faite le bug n'apparait que lorsqu'on navigue sur mozilla (3.5) et que l'on a Windows XP + Kaspersky comme anti virus Je vais essayer ta technique et te tiendrais au courant si ca corrige le problème. Un grand merci kioob A++
  12. Re, Toujours personne qui connait Ce système de cache ? Et aurais eu ce genre de beug... Il semblerait que ca soit juste spécifique au serveur dédié. Je viens de tester sur un mutualisé le plugin fonctionne parfaitement
  13. Bonjour le HUB, J'ai un ptit problème avec un site et l'activation d'un système de cache Quickcache. J'essaye en vain de le mettre en place sur un wordpress qui est hébergé sur un serveur dédié ovh mais je rencontre un problème que je n'arrive pas à solutionner. Lorsque je navigue sur le site avec firefox le site rame et me propose de temps en temps des fichiers à télécharger quand le serveur met trop de temps pour répondre . Alors que sur IE tous roule à merveille, les pages se charge à très grandes vitesses et sans jamais me proposer de fichier. On m'a dit que ca pourrait venir de la configuration du gzip sur les dédiés d'ovh mais je en vois pas trop comment faire et quel ligne de code modifier dans le php ini. Je vous remercie d'avance pour votre aide Cordialement,
  14. Je suis d'accord, je parlais juste de l'effet de fraicheur dont bénéficie un nouveau site dans les résultats google. Chose qui est prouvé et qui peut permettre à certains site d'exister pendant un temps très court sur des requetes ultra concurrentielles.
  15. Salut, Il devait te parler de l'effet de fraicheur, une prime donnée au nouveaux sites sur certaines requetes visées. Celle ci ne dure que quelques semaines, voir un mois au mieux. Chacun te donnera son avis mais oui l'ancienneté est le nerf de la guerre, l'un des critères le plus importants avec le backlink. De nos jours lors du lancement d'un site on parlera plus de marketing, buzz que de référencement. Il faut frapper un grand coup dans l'esprit des internautes si tu veux et que le nom de ta marque ou site sonne dans le plus de tête. Toutefois le référencement est à prendre en compte dès la conception d'un site afin que celui ci n'est pas trop de facteurs bloquants. Afin de mettre en place les spécifités techniques liées à un bon référencement. Et surtout pour qu'il soit facilement indexable par les moteurs de recherches.
  16. Salut, Tu peux aussi utiliser Spip qui est un peu plus compliqué à mettre en place que wordpress, notamment au niveau de la charte graphique. Mais tu as déjà des templates près fait.
  17. Salut, L'idéale c'est comme le dit karnabal une extension par pays(Langues) avec si possible un hébergement géolocalisé par langues.
  18. Il y a aussi des sites de videos qui appartiennent aux chaines de TV ou tu peux parfois récupérer en légalité des émissions. Wat.tv pour TF1 et Wideo par exemple pour M6
  19. Je suis d'accord sur le principe que vous énoncez mais il y a quand même des choses bizarres. Me dire que le référencement naturel et le payant ne sont pas liés je dis faux. Car toutes sources de trafic sont bonne à prendre pour un site du moment que derrière la conversion soit bonne. Et ça google sait juger. Et dire que ce serait suicidaire pour google aucunement. Google est ancré dans les habitudes des internautes à une telle importance que si demain il décidait de faire payer tout le monde, tout le monde suivrait sans broncher... Je ne critique pas j'admire juste la puissance de ce géant du web tout en essayant de rester vif d'esprit sur certains sujets
  20. Merci pour la source mais quand des clients stop d'un coup des campagnes à 20 000 euros et que d'un coup sans aucune modification de la structure du site. Ils chutent dans les positions, il y a des questions à se poser. A noter qu'il y a aussi des sites qui sortent de nulle par uniquement propulsé par les adwords et au bout d'un certains temps ils obtiennent des positions pérennes sur des requêtes ultra concurrentielle. Autant j'admire le géant moteur de recherche pour plein de choses et notamment sa belle réussite, ainsi que sa philosophie d'entreprise. Mais le doute existe et nulle ne peut dire qu'il n y' a pas des choses bizarres.
  21. Merci pour ton retour sur ton utilisation des adwords. Cela confirme ce que je pensais et avais déjà remarqué sur d'autres requêtes. Dans ton domaine (e commerce), les adwords s'ils sont bien utilisés peuvent être une solution efficace pour avoir un chiffre d'affaire minimum. Et cela est bien moins aléatoire que le référencement naturel... PS: Ce n'est pas ton référencement qui est meilleur mais ta position sur cette requête qui est meilleure
  22. Heuu....et Alexa c'est quoi pour vous alors ? Des voleurs de contenus aussi...
  23. Salut, Je souhaiterais juste intervenir pour te dire que tu te focalise trop sur tes concurrents. Pendant que toi tu perds du temps à analyser les techniques qu'ils utilisent . Eux bossent et font progresser leur site. Il faut savoir que ceux qui utilisent des techniques frauduleuses et réussissent sont très rare surtout sur des requêtes ultra concurrentielle. PS: Quand je dis que tu perds ton temps, c'est que si j'analyse la concurrence. C'est pour me dire que ce qu'ils font de mieux que moi. Je ne me dis pas tiens quelles techniques obscures du référencement ils utilisent, pour être classer devant moi. Ta façon de raisonner veut dire que tout ceux qui sont 1er sur une requête ont forcement utilisés des techniques illicites...
  24. Non car il se peut que ce soit des erreurs temporaires. Peut-être que ton serveur ramait au moment ou les bots de Google explorait ton site. Avec ce message d'erreur dans ton compte webmaster tools tu as des messages d'explications sur ces types d'erreurs. Consulte les pour avoir plus d'infos.
×
×
  • Créer...