Aller au contenu

theonlydrayk

Actif
  • Compteur de contenus

    29
  • Inscrit(e) le

  • Dernière visite

Messages postés par theonlydrayk

  1. (le contenu sera différent pour un visiteur ou pour un robot)

    Ca s'apelle du cloaking et c'est une tres tres mauvaise idee, si google

    s'en appercoit tu est banis.

    Source : http://www.google.com/support/webmasters/b...py?answer=35769

    Et par rapport au passage des moteurs je me disais que je pourrais par exemple desactiver les images, CSS et autres lorsque c'est un robots qui passe sur les pages. Qu'en pensez vous ? Est ce que l'on a le droit de faire ca.

    Les moteurs de recherche ne lise jamais le CSS et le Javascript.

    (Ok jai deja vue ca 2-3 fois mais c'est une execption)

    Tu peut utiliser le user-agent de google pour eviter qui crawle les images

    dans ton fichiers robots.txt, aucune image de ton site sera indexer,

    et ca peut accelerer un peut la vitesse. Mais en general, google

    vients chercher du html pas des images.

    User-agent: Googlebot-Image
    Disallow: /

    Source(s) :

    http://www.google.com/support/webmasters/b...py?answer=40364

    http://www.robotstxt.org/

    apparement, pour éviter que les moteurs n'ait plus envie d'explorer (ou de moins explorer) un site, il faut que les pages ne soit pas trop longues à télécharger.

    Oui effectivement c'est vrai. Mais c'est un peu negligable. Si tu possede

    beaucoup de bon contenu, beaucoup de contenu qui arrive chaque jour,

    beaucoup de liens entrants, google va visiter ton site qu'il soit lents

    ou pas.

    Mets le focus sur le contenu de qualiter et du nouveau contenu regulierement.

    Ajoute des backlinks, et ne te soucie pas trop de la vitesse.

    j'ai utiliser l'outil ozMonitor (fr.ozmonitor.org) et il me dis que les pages mettent en moyenne 3s à être télécharger (pourtant lorsque l'on surfe dessus c'est tout à fait fluide. Alors déjà, je me demande si cela peut venir de l'hébergeur, de mon code, etc ...

    Je suppose que le programe que tu utilise download toute les pages en meme temps ce qui surcharge le server et fait ralentir. Si le site est fluide quand on le visite ca devrait etre ok. Tu peut changer la vitesse de google (il va chercher 1 page par 4 seconde au lieu de 1 page par 1 secondes:c'est juste un exemple) Il va prendre le meme nombre de page, et a la meme frequence que presentement, c'est uniquement pour eviter de surcharger un server. Tu t'inscrit dans Google Webmaster et il a une options pour changer cette vitesse la : http://www.google.com/support/webmasters/

    Si la vitesse est agreable pour les utilisateur, je crois que tu devrais pas trop te soucier de la vitesse et concentrer tes efforts sur du contenu de qualiter et des liens de qualiter.

  2. c'est l'ip qui est déterminente.

    un serveur peut être physiquement en France avec une ip italienne.

    Selon MaxMind : http://www.maxmind.com/app/locate_ip

    L'adresse IP ce trouve en france. (Et bien sur le server est bien sur le territoire francais)

    Les pages sont indexers par google france depuis 2 ans. Et le server n'a pas changer d'adresse IP depuis 2 ans. Je ne comprend pas pourquoi tout a coup il decide que le server n'est plus situer en france. Tout les autres severs de google que jai tester affiche le meme resultat environ 57'600 pages indexers execpter le server de france. Ce n'est pas un site de spam ou a cause du duplicate content qui retire les pages.....les autres serveur on encore l'indexation du site.

    Si quelqun a une hypothese je suis prenneur

    Rien de changé en ce qui concerne mes .fr ... hébergés hors france.

    :?:

    Pour le site c'est un .com heberger en france. Je ne sait pas si ca peut changer quelque chose.

    Oui j'ai remarqué cela aussi su l'un des mes site (qui est hébérgé en France). il désindexe un certain nombre de page. J'éspère que ca ne va pas continuer ...

    Le miens est passer de 57'600 sur google france (et tout les autres server) a 2'710 pages sur google france et 57'600 sur tout les autres server.

  3. c'est ce que tu appelles la définition du chartype (avt title)?

    <meta http-equiv="Content-Type" content="text/html; charset=iso-8859-1" />

    en tt cas, merci déjà pr ta 1ere rep !

    Ton tag <meta http-equiv="Content-Type" content="text/html; charset=iso-8859-1" /> est invalide la fin de balise "/>" suppose que tu utilise du XHTML, et le XHTML ne devrait jamais etre servit en temps que text/html.

    La bonne balise serait en HTML 4.01 (c'est ce que je te recommande):

    <meta http-equiv="Content-Type" content="text/html; charset=iso-8859-1">

    Et en XHTML :

    <meta http-equiv="Content-Type" content="application/xhtml+xml; charset=iso-8859-1" />

    Reference :

    http://www.hixie.ch/advocacy/xhtml.fr/

    http://www.w3.org/TR/xhtml-media-types/

  4. Le referencement c'est relativement simple.

    Du bon contenu (et du bon contenu qui sajoute regulierement)

    Des liens pertinent vers ton site web.

    Commence par trouver des forums et des annuaires specialiser dans le meme domaine que toi.

    Et evite d'avoir un paquet de liens page rank 0 qui ont aucun liens avec ton site web.

    Ensuite si tu fournit un tres bon site web.....le monde

    vont naturellement faire un liens vers toi sans que tu le demande.

    Je pense que les meta tags on beaucoup moins d'importance qu'avant.

    J'irais plus vers le nom de domaine, l'url, la balise <title> et du beau code html bien former, pas du <div> tout le temps mais les bon tag html <strong>, <h1>, <h2>, <ul>, <li>, ............

    Pas de mots important (titre & menu) en image ou en flash. Les faires en textes.

    "adsense" et "adwords" sont un system de publiciter qui peut tapporter du traffique de facon non-naturel et c'est bien different du referencement.

    Tu n'a pas besoin de soumettre ton site a google ou yahoo, avec des liens vers ton site web venant d'annuaire et de forums, il vont trouver par eux meme. Google Webmaster et Yahoo Site Explorer peuve taider a savoir ou ton referencement est rendu.

  5. Jai observer le meme resultats sur un gros site web site physiquement situer en france.

    Un site web qui date de 2 ans avec environ 50'000 page indexer avec google france.

    Il se mets tout a coup (sans changement d'adresse IP) a des-indexer toute les pages de google france.

  6. Ca a changé il n'y a pas bien longtemps.

    Les bots Adsense sont maintenant capables d'aider à l'indexation du site....

    Dan

    Selon le site de Google :

    http://www.google.com/support/webmasters/b...py?answer=34428

    "Participation in an advertising program doesn't positively or negatively affect inclusion or ranking in the Google search results."

    "La participation à un programme de publicité n'a aucune incidence, positive ou négative, sur l'inclusion ou le classement dans les résultats de recherche Google"

    A moins d'une experience qui prouve le contraire, je vais continuer de croire que ca n'apporte rien par rapport a l'index des page et le page rank.

  7. J'ai remarquer depuis peu que google.fr jouyais enormement au yoyo avec ces resultats ce soir c'est pire que jamais :

    http://www.google.fr/search?hl=fr&q=si...&meta=lr%3D

    Site Wikipedia sur le web 12 800 000 pages indexers

    http://www.google.fr/search?hl=fr&q=si...ta=lr%3Dlang_fr

    Site Wikipedia page francophones 223 000 pages indexers

    jusque la tout est normal mais

    http://www.google.fr/search?hl=fr&q=si...=cr%3DcountryFR

    Site Wikipedia Pages : France

    Aucun document ne correspond aux termes de recherche spécifiés (site:wikipedia.org).

    Et c'est comme ca pour presque tout les site que jessaye

    hotmail.com est aussi pas indexer.....

    Quelqu'un dautre a remarquer le phenomeme depuis quelque jours et a une idee de ce qui ce passe ??

  8. 300 cookies * 4'000 octets = 1'200'000 octets

    Apres le stockage par gmail...on va avoir des disque dur virtuel stocker par cookies ;)

    J'ai aucune idee du maximum possible....je suppose qu'on va rejoindre le maximum de disque dur libre. Dans ma configuration de Opera 9.10 il n'a aucune options de limites maximal. Ni en grosseur nis en quantiter.

    Je serait bien curieux d'avoir les resultats si tu fait d'autre test et trouve la reponse.

  9. Je ne connais pas YoodaMap mais a mon avis faire ton propre script qui genere automatiquement un sitemap.xml est une bonne idee tu peut faire des statistiques sur qui vients voir ton sitemap (google, yahoo, msn). Tu peut ensuite compter le nombre de page de ton site web et comparer combien de page sont indexer par les moteurs. Avec un petit script maison c'est relativement simple et tres utile.

    Si tu na pas besoin de ces statistiques ou tu veut faire les chose simplement (et pas dispendieux)

    Je connais quelqu'un qui utilise http://www.xml-sitemaps.com/ et ma donner de bon commentaire.

    A l'exterieur du sitemap les moteurs de recherche obeisse au fichiers robots.txt et bloquer le dossier devrait les empechers de l'indexer.

    http://www.monsite.org/robots.txt

    User-agent: *
    Disallow: /mail/

    robots.txt :

    http://www.robotstxt.org/wc/exclusion.html

    Sitemap :

    http://www.sitemaps.org/

  10. Non et c'est une tres bonne chose. L'utilisateur qui a le dernier mot sur la facon dont il voit tes pages. C'est la tout l'avantage/probleme du Web!

    La seule solution, a mon avis est de modifier ton site pour que toute les fonctions principales et l'affichage fonctione sans javascript. C'est tres utile pour tes visiteurs qui choissise de ne pas executer tes javascripts et pour les moteurs de recherche google,yahoo,msn qui n'interprete pas le javascript.

  11. Tu peut utiliser un .htaccess pour renvoyer tes utilisateurs selon

    leur user-agent. Il te reste a trouver les user-agents.

    Options +FollowSymlinks
    RewriteEngine on
    RewriteCond %{HTTP_USER_AGENT} 'mobile_user-agent-1' [NC]
    RewriteCond %{HTTP_USER_AGENT} 'mobile_user-agent-2' [NC]
    RewriteCond %{HTTP_USER_AGENT} 'mobile_user-agent-3' [NC]
    RewriteCond %{HTTP_USER_AGENT} 'mobile_user-agent-4' [NC]
    RewriteRule ^(.*) http://planetejeunes.marseille.fr/planete/mobile/$1 [QSA,L]

    Je ne suis pas sur mais je ne crois que ce type de redirection n'est pas considerer comme du 'cloaking' puisque que tu ne sert pas la meme page sur le meme URL. Et google devrait pas poser de probleme.

    Le W3C a deja un Media-Type pour les mobiles 'handheld' qui

    pourrais servir : http://www.w3.org/TR/REC-CSS2/media.html

    Quelque chose comme ca dans ta homepage :

    CSS :

    div#mobile {
    display:none;
    }
    _AT_media handheld {
    div#mobile {
    display:block;
    }
    }

    HTML (en haut de la page d'acceuil) :

    <div id="mobile">
    <a href="http://planetejeunes.marseille.fr/planete/mobile/">Utilisateur de mobile suivez ce liens</a>
    </div>

    Ca reste a tester mais ca pourrais fournir un liens rapide pour les utilisateurs de petit ecran. Qui ne serait pas afficher

    sur l'ecran d'ordinateur normal et pas imprimer.

  12. Google lit (rarement) les CSS et les Javascript :

    66.249.72.52 - - [24/Oct/2006:17:17:35 -0500] “GET /global/x.css HTTP/1.1″ 200 8382 “-” “Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)”

    66.249.72.234 - - [07/Sep/2006:00:47:29 -0500] “GET /socializer/socializer.js HTTP/1.1″ 200 228 “-” “‘Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)’”

    A savoir de quel facon il les interpretes jen ai aucune idee.

    Je parlais uniquement de l'ordre dans le fichier html/xhtml.

  13. C'est une erreur. Le premier liens dans ta page recoits le plus de page rank, le deuxieme moins, le troisieme moins, .....

    Si tu ajoute ton menu trop loin dans ta page ton menu ne recevera pas aucun page rank. Si on tiens compte uniquement du referencement, le premier liens doit etre vers ton domaine (ta home page pour lui donner le plus gros page rank) apres tes sections principale de ton site pour redistribuer le page rank, pour qu'il penetre a l'interieur de ton site. Apres les liens vers des pages.

    Au dela d'un certain nombre de liens dans une page aucun page rank n'est donner....alors c'est tres important si on tiens uniquement compte du referencement de mettre le menu avant.

    Ref :

    http://www.webrankinfo.com/google/pagerank/interieur.php

  14. Avec un header en php

    Dabord indique une fause date pour eviter le cache (Ce n'est pas fiable a 100% mais c'est trjs ca de gagner). Les commandes

    header() doive etre envoyer avant n'importe quel autre caracteres.

    if (!headers_sent())
    {
    header("Cache-Control: no-cache, must-revalidate"); // HTTP/1.1
    header("Expires: Mon, 26 Jul 1997 05:00:00 GMT"); // Date du passé
    }

    Apres selon une condition tu renvoit ta page :

    if (!headers_sent())
    {
    header("Location: http://www.unsiteweb.com/unepage.html");
    }

    :!: Je ne suis pas trop sur du resultat que ca va donner sur le referencement....

    Reference :

    http://www.php.net/manual/fr/function.header.php

    http://www.php.net/manual/fr/function.headers-sent.php

  15. Pour chercher les images indexer :

    http://images.google.com/images?q=site:piwiz.com

    Google ne peut pas voir les images, il se sert

    de l'URL complete et du alt tag de l'image

    pour l'identifier :

    URL : http://www.piwiz.com/photo/1166699530v.jpg?a=1166700926

    ALT : CASQUE POMPIER AMERICAIN

    Si on regarde dans google keywords :

    https://adwords.google.com/select/KeywordToolExternal

    Les mots 'CASQUE POMPIER AMERICAIN', '1166699530v' et 'piwiz'

    ne sont pas des mots rechercher par les internautes.

    Il n'y a que le mots 'photo' qui est rechercher

    par les internautes et google ne voit surment

    pas l'interet d'indexer une image que personne

    ne veut voir. Photo est un mot tres vagues,

    tres rechercher et beaucoup d'image contienne

    ce mots la.

    Si ton image ne change pas regulierement tu peut enlever

    le '?a=1166700926' pour le cache. Et renommer tes

    images comme ca :

    http://www.piwiz.com/photo/Casque_Pompier_Americain.jpg

    Qui va surment aider l'indexation de tes images.

    Ou comme ca (pour eviter 2 noms pareil) :

    http://www.piwiz.com/photo/1166699530v_Cas...r_Americain.jpg

    Mais peut importe ce que tu fait....

    Si les mots ne sont pas rechercher par les internautes

    google n'indexera pas la page et/ou l'image.

    Avec google keywords :

    https://adwords.google.com/select/KeywordToolExternal

    Tu peut chercher des synonymes qui sont

    rechercher par les internautes mais vue la quantiter

    d'image ca risque de prendre un temps considerable

    pour un faible resultat.

  16. Avant de chercher avec des mots clefs dans google

    commence par voir si ton site est indexer

    http://www.google.com/search?q=site:taloptic.fr

    Tu peut voir aussi combien et quel site web

    font des liens vers ton site web avec link:

    http://www.google.com/search?q=link:taloptic.fr

    Personne ne fait de liens vers ton site web

    et google connais aucune de tes pages. C'est

    normal de ne pas etre dans les resultats de recherche.

    Si des sites web fesait des liens vers ton site

    google l'aurais trouver tout seul.

    Mais comme tu est seul au monde, tu doit

    soumettre ton site :

    http://www.google.com/addurl/

    Mais le mieux reste un fichier /sitemap.xml envoyer

    a google avec google sitemap :

    http://www.google.com/webmasters/sitemaps/

    Les fichiers sitemap.xml sont supporter par Google, Yahoo! et MSN Search.

    Les meta tags ne sont pas d'une grande importance.

    Le nom de domaine, l'URL complete, le Titre

    et surtout le contenu.

  17. Utilise un timer javascript qui a toute les x secondes fait une requetes au server.

    Un php sur le server lit la base de donner et envoit les info au javascript.

    Le javascript modifie la page.

    (c'est ce qu'on apelle du AJAX)

    Ta interet a avoir un server solid parce que ca va surment demander

    beaucoup...en fonction du nombre de page bien sur.

    SetTimeout();

    la fonction javascript pour le timer. Google va te

    trouver un exemple.

    http://google.com/codesearch/

  18. La commande php header(); doit etre la premiere a etre envoyer.

    Sit tu envoit du html le php envoit les header apres il envoit ton html.

    A ce moment la il est impossible d'envoyer les headers ils sont deja clos.

    Tu peut utiliser la commande headers_sent() pour savoir si les headers

    ont ete envoyer ou pas.

    http://www.php.net/manual/fr/function.headers-sent.php

    if (!headers_sent())
    {
    header("location: toutetrien.redby.info/espace_membre/index.php");
    exit;
    } else
    {
    /* On ne peut plus rediriger la page les headers sont envoyer */
    echo '<a href="toutetrien.redby.info/espace_membre/index.php">Cliquer Ici</a>';
    exit;
    }

    Mais le mieux je crois serait d'envoyer ton code dans le haut de la page

    en premier. N'envoye aucun html ou espace, aucun caractere, fait le test

    de sessions et envoye tes headers, apres tu t'occupe du html.

×
×
  • Créer...