Aller au contenu

Djames-Allen

Hubmaster
  • Compteur de contenus

    384
  • Inscrit(e) le

  • Dernière visite

Messages postés par Djames-Allen

  1. Salut Tchinkatchuk,

    Pour les redirections je pense aussi que c'est faisable via une extension maison ou un script sur le htaccess. mais le gros probleme c'est que je ne connais pas du tout typo3. J'ai commencé le tuto je trouve que c'est pas du tout intuitif comparé à d'autres cms pour installer la réécriture d''url.

    Par exemple comment connaitre la page root id ? C'est celle de l'arborescence du backoffice ou du frontoffice car suivant que l'on se met partie public ou privée du site ce ne sera pas pareil. Sans compter que la création du fichier realurl_conf.php m'a l'air assez périlleuse, je pense qu'il aurais été plus logique de livrer le fichier standard config est de spécifié via des lignes de codes quelles lignes devrait etre éditer.

    Merci

  2. Salut le Hub,

    Je suis entrain de découvrir un nouveau CMS Typo3 sur un site ou je dois mettre en place de l'url rewriting mais je ne vois pas par quel bout commencer. Outre la complexité du CMS, j'ai plus de 40 000 pages d'indexé dans google. Sur ce site j'ai un plugin d'installer RealUrl mais il ne semble pas activé car les urls sont toutes sous la forme index.php?id=Nom_De_La_Rubrique.

    Est ce que l'un d'entre vous connaitrait Typo3 et la récriture d'url sur ce cms. Car je ne vois pas par ou commencer et j'aurais besoin juste de quelques tuyaux, conseils ou de liens vers des tutos.

    Je vous remercie d'avance pour votre aide.

    Cdlt

  3. De même la qualité d'un référenceur ne doit pas se juger sur sa capacité à positionner un site en première position de Google. En effet la qualité d'un référenceur ne devrait se juger que sur son aptitude à générer du trafic qualifié pour les sites de ses clients. Etre premier sur Google sur des mots-clés qui ne génèrent pas de trafic ou alors du trafic non qualifié (taux de rebond important) ne sert strictement à rien d'autre que se bran*er de satisfaction devant la page de résultats de Google

    Patrick

    J'ai pas pour habitude de reprendre les citations des membres du hub comme sur d'autres forums.

    Mais la je tenais à dire un grand merci à Patrick :) Pour cette intervention qui fait du bien à lire. Et qui sort du discours habituel que l'on entend en agence ou dans le cercle des référenceurs.

    Mais le problème dans ce métier de référenceur c'est qu'en général les gens se la pète énormément juste parce qu'il ont réussit à positionner un site premier sur google. Oh mon dieu quel exploit surtout sur un kw qui n'a aucun sens et qui ne sera jamais tapé...

    Et pour tant j'ai connu pas mal d'autres domaines d'activités ou les gens gagnait bien plus que dans ce métier mais restait quand même un minimum avec les pieds sur terre!!!

  4. Pour communiquer est atteindre une cible, Facebook, Youtube et Twitter. Je les cite dans un ordre relatif à ton secteur et suivant le potentiel visite de ces sites. Il faut savoir vivre avec son temps et ces outils sociaux te permettront de communiquer autour de ton images de marque.

    Pour le Ref je rejoins ce que dit Magicoyo, le ref ne fait pas tout loin de là, et il faut toujours savoir se retenir en terme d'optimisation et ne pas dépasser la limite de suroptimisation!!!

  5. Kioob,

    Je voudrais te dire un grand merci. Le site est stable sous firefox, plus de bug et les ralentissements sont raisonnables. J'ai remis le htacces comme il etait avant l'installation du plugin. Tout est nikel, je tiens à te dire un grand merci pour ton aide précieuse.

    Je vais me rendre sur le forum de Quickcache est leur dire que le plugin souffre d'un bug, ca pourrait servir à d'autres.

    Encore merci Kioob passe une bonne soirée ;)

    Oui désolé c'est le 3eme site en signature :)

    Enfin, concernant les lenteurs ca reste raisonnable je pense... Je ne sais pas trop car je n'ai pas trop de recul par rapport à d'autres sites web

  6. Merci Kioob, pour tes indications.

    Je viens d'y rajouter à l'intérieur de la fonction comme ceci :


    if (strstr($foundETag, $myETag)) {
    ini_set('zlib.output_compression', false);
    // Not modified!
    if(stristr($_SERVER["SERVER_SOFTWARE"], "microsoft")) {
    // IIS has already sent a HTTP/1.1 200 by this stage for
    // some strange reason
    ini_set('zlib.output_compression', false);
    header("Status: 304 Not Modified");
    } else {
    if ( $QUICKCACHE_ISCGI ) {
    ini_set('zlib.output_compression', false);
    header('Status: 304 Not Modified');
    } else {
    ini_set('zlib.output_compression', false);
    header('HTTP/1.0 304');
    }
    }

    Ca fonctionne je n'ai pas eu de fichier proposé au téléchargement mais par contre ca rame un peu...

    Au niveau du htacces j'ai enlevé SetEnv nokeepalive

    mais par contre on avait mis en place avec un ami des indications pour mozilla je ne sais pas si ca peut aider ou pas à corriger le beug.


    ## enable resulting html compression

    #php_flag zlib.output_compression on

    ############################################
    ## enable apache served files compression
    ## http://developer.yahoo.com/performance/rules.html#gzip

    # Insert filter
    SetOutputFilter DEFLATE

    # Netscape 4.x has some problems…
    BrowserMatch ^Mozilla/4 gzip-only-text/html

    # Netscape 4.06-4.08 have some more problems
    BrowserMatch ^Mozilla/4\.0[678] no-gzip

    # MSIE masquerades as Netscape, but it is fine
    BrowserMatch \bMSIE !no-gzip !gzip-only-text/html
    # Don’t compress images
    SetEnvIfNoCase Request_URI \.(?:gif|jpe?g|png)$ no-gzip dont-vary

    # Make sure proxies don’t deliver the wrong content
    Header append Vary User-Agent env=!dont-vary

    Ceci aussi je l'ai supprimé du htaccess qui est revenu comme il était avant l'installation de Quickcache.

    Pense tu s'il te plait que ceci aussi n'est pas nécessaire.

    Merci Kioob :)

  7. Kioob,

    En faite j'ai bien ce que tu me demande de rajouter mais c'est dans un else


    function quickcache_flush($gzdata, $datasize, $datacrc) {
    // First check if we can send last-modified
    $myETag = "\"qcd-$datacrc.$datasize\"";
    header("ETag: $myETag");
    $foundETag = isset($_SERVER["HTTP_IF_NONE_MATCH"]) ? stripslashes($_SERVER["HTTP_IF_NONE_MATCH"]) : "";
    $ret = NULL;

    if (strstr($foundETag, $myETag)) {
    // Not modified!
    if(stristr($_SERVER["SERVER_SOFTWARE"], "microsoft")) {
    // IIS has already sent a HTTP/1.1 200 by this stage for
    // some strange reason
    ini_set('zlib.output_compression', false);
    header("Status: 304 Not Modified");
    } else {
    if ( $QUICKCACHE_ISCGI ) {
    ini_set('zlib.output_compression', false);
    header('Status: 304 Not Modified');
    } else {
    ini_set('zlib.output_compression', false);
    header('HTTP/1.0 304');
    }
    }
    } else {
    // Are we gzipping ?
    if ($GLOBALS["QUICKCACHE_USE_GZIP"]) {
    $ENCODING = quickcache_encoding();
    if ($ENCODING) {
    // compressed output: set header. Need to modify, as
    // in some versions, the gzipped content is not what
    // your browser expects.
    header("Content-Encoding: $ENCODING");
    $ret = "\x1f\x8b\x08\x00\x00\x00\x00\x00";
    $ret .= substr($gzdata, 0, strlen($gzdata) - 4);
    $ret .= pack('V',$datacrc);
    $ret .= pack('V',$datasize);
    } else {
    // Darn, we need to uncompress
    $ret = gzuncompress($gzdata);
    }
    } else {
    // So content isn't gzipped either
    $ret=$gzdata;
    }
    }
    return $ret;
    }

    Tu pense que je devrais quand mm l'insérer à la fin ou au début de la fonction ?

    Donc je viens de tester en insérant au dessus de la fonction le code mais j'ai encore le beug par contre j'ai supprimer la mention dans le htaccess. Ce serait lié peut être ?

    Merci en tous cas Kioob pour le temps que tu passe à m'aider :)

  8. Kioob,

    Comment te dire, un grand merci d'abord. C'était bien cela, le bug n'apparait plus et le systeme quickcache fonctionne à merveille meme sur firefox.

    Je te remercie sincèrement et énormément pour ton aide sans ton aide, je n'aurais peut être jamais corrigé ce beug.

    Pour info il faut rajouter sur le htaccess

    SetEnv nokeepalive

    pour corriger le problème et je recommande tout spécialement quickcache à ceux qui cherchent un systeme efficace.

    Ps: Merci à Kioob et R23o qui se reconnaitra

    Thks

  9. Hello Kioob,

    Tout d'abord merci pour ton intervention. Je vais essayer avec mes maigres connaissances de l'administration de Apache de désactiver Keepalive.

    Pour info, avec un pote on a réussit à bien diagnostiquer le problème. En faite le bug n'apparait que lorsqu'on navigue sur mozilla (3.5) et que l'on a Windows XP + Kaspersky comme anti virus :(

    Je vais essayer ta technique et te tiendrais au courant si ca corrige le problème.

    Un grand merci kioob A++

  10. Bonjour le HUB,

    J'ai un ptit problème avec un site et l'activation d'un système de cache Quickcache. J'essaye en vain de le mettre en place sur un wordpress qui est hébergé sur un serveur dédié ovh mais je rencontre un problème que je n'arrive pas à solutionner.

    Lorsque je navigue sur le site avec firefox le site rame et me propose de temps en temps des fichiers à télécharger quand le serveur met trop de temps pour répondre :( .

    Alors que sur IE tous roule à merveille, les pages se charge à très grandes vitesses et sans jamais me proposer de fichier.

    On m'a dit que ca pourrait venir de la configuration du gzip sur les dédiés d'ovh mais je en vois pas trop comment faire et quel ligne de code modifier dans le php ini.

    Je vous remercie d'avance pour votre aide

    Cordialement,

  11. Salut,

    Il devait te parler de l'effet de fraicheur, une prime donnée au nouveaux sites sur certaines requetes visées. Celle ci ne dure que quelques semaines, voir un mois au mieux. Chacun te donnera son avis mais oui l'ancienneté est le nerf de la guerre, l'un des critères le plus importants avec le backlink.

    De nos jours lors du lancement d'un site on parlera plus de marketing, buzz que de référencement. Il faut frapper un grand coup dans l'esprit des internautes si tu veux et que le nom de ta marque ou site sonne dans le plus de tête.

    Toutefois le référencement est à prendre en compte dès la conception d'un site afin que celui ci n'est pas trop de facteurs bloquants. Afin de mettre en place les spécifités techniques liées à un bon référencement. Et surtout pour qu'il soit facilement indexable par les moteurs de recherches.

  12. Je suis d'accord sur le principe que vous énoncez mais il y a quand même des choses bizarres. Me dire que le référencement naturel et le payant ne sont pas liés je dis faux. Car toutes sources de trafic sont bonne à prendre pour un site du moment que derrière la conversion soit bonne. Et ça google sait juger.

    Et dire que ce serait suicidaire pour google aucunement. Google est ancré dans les habitudes des internautes à une telle importance que si demain il décidait de faire payer tout le monde, tout le monde suivrait sans broncher... Je ne critique pas j'admire juste la puissance de ce géant du web tout en essayant de rester vif d'esprit sur certains sujets

  13. Merci pour la source mais quand des clients stop d'un coup des campagnes à 20 000 euros et que d'un coup sans aucune modification de la structure du site. Ils chutent dans les positions, il y a des questions à se poser. A noter qu'il y a aussi des sites qui sortent de nulle par uniquement propulsé par les adwords et au bout d'un certains temps ils obtiennent des positions pérennes sur des requêtes ultra concurrentielle. Autant j'admire le géant moteur de recherche pour plein de choses et notamment sa belle réussite, ainsi que sa philosophie d'entreprise. Mais le doute existe et nulle ne peut dire qu'il n y' a pas des choses bizarres.

  14. Merci pour ton retour sur ton utilisation des adwords. Cela confirme ce que je pensais et avais déjà remarqué sur d'autres requêtes.

    Dans ton domaine (e commerce), les adwords s'ils sont bien utilisés peuvent être une solution efficace pour avoir un chiffre d'affaire minimum. Et cela est bien moins aléatoire que le référencement naturel...

    PS: Ce n'est pas ton référencement qui est meilleur mais ta position sur cette requête qui est meilleure ;)

  15. Salut,

    Je souhaiterais juste intervenir pour te dire que tu te focalise trop sur tes concurrents. Pendant que toi tu perds du temps à analyser les techniques qu'ils utilisent . Eux bossent et font progresser leur site. Il faut savoir que ceux qui utilisent des techniques frauduleuses et réussissent sont très rare surtout sur des requêtes ultra concurrentielle.

    PS: Quand je dis que tu perds ton temps, c'est que si j'analyse la concurrence. C'est pour me dire que ce qu'ils font de mieux que moi. Je ne me dis pas tiens quelles techniques obscures du référencement ils utilisent, pour être classer devant moi. Ta façon de raisonner veut dire que tout ceux qui sont 1er sur une requête ont forcement utilisés des techniques illicites...

  16. Non car il se peut que ce soit des erreurs temporaires. Peut-être que ton serveur ramait au moment ou les bots de Google explorait ton site.

    Avec ce message d'erreur dans ton compte webmaster tools tu as des messages d'explications sur ces types d'erreurs. Consulte les pour avoir plus d'infos.

×
×
  • Créer...