Aller au contenu

Lugdunum

Actif
  • Compteur de contenus

    47
  • Inscrit(e) le

  • Dernière visite

Messages postés par Lugdunum

  1. Bonjour, je pense qu'il est préférable de passer par un prestataire spécialisé.

    Il n'y a vraiment aucune alternative possible selon toi? Car apparement ce problème n'est récurrent que pour les services Microsoft.

    Tu as des prestataires à me conseiller que je puisse regarder un peu si cela pourrait répondre à mes besoins?

    Merci d'avance ;)

  2. Bonjour,

    Je pensais que ce problème avait été réglé depuis un petit temps, mais à ma grande surprise je constate que chaque email envoyé depuis mon serveur dédié vers Hotmail se retrouve systématiquement en courrier indésirable chez "Hotmail".

    Après quelques tests et changement au niveau des entêtes pour l'envoi des emails et d'une redéfinition de mon SPF Record jugé valide par Microsoft et openspf.org, tout semblait être revenu à la normale avec l'adresse de notre service qui est un compte pop bel et bien existant.

    Voici les résultats des test du SPF Record selon openspf.org:

    pass Please see http://www.openspf.org/why.html?sender=service%40tongay.com&ip=94.23.236.174&receiver=tools.bevhost.com: tongay.com A 94.23.236.174 tools.bevhost.com: domain of service_AT_tongay.com designates 94.23.236.174 as permitted sender v=spf1 a mx ptr ~all HASH(0x8eb9fa0) 

    Connecting to 94.23.236.174
    220 box4.bevhost.com ESMTP Postfix
    HELO ks308325.kimsufi.com
    250 box4.bevhost.com
    MAIL FROM: <service_AT_tongay.com>
    250 2.1.0 Ok
    RCPT TO: <nobody_AT_tools.bevhost.com>
    550 5.1.1 : Recipient address rejected: undeliverable address: mail for tools.bevhost.com loops back to myself
    QUIT
    221 2.0.0 Bye

    Test du SPD Record chez Microsoft:

    SPF Record Found
    [OK] One or more functional SPF record(s) have been found for the domain tongay.com
    The inbound mail servers of the domain may also send mail outbound.

    Any IP addresses listed in the domain's A records in DNS are also outbound mail servers for the domain. (What's this?)
    At the present time, the domain's A records contain the following addresses:

    94.23.236.174

    No domains are listed as outsourced domains. (What's this?)

    The full text of the domain's SPF record is as follows.

    v=spf1 a mx ptr ~all

    Test de blacklistage négatif:


    blacklist:94.23.236.174

    Checking 94.23.236.174 against 103 known blacklists...
    Listed 0 times with 4 timeouts.

    Voici l'entête email utilisée:


    $email_headers = "From: TonGay.com <service_AT_tongay.com>\n";
    $email_headers .= "Reply-To: TonGay.com <service_AT_tongay.com>\n";
    $email_headers .= "MIME-Version: 1.0\n";
    $email_headers .= "Return-Path: <service_AT_tongay.com>\n";
    $email_headers .= "X-Sender: <www.tongay.com>\n";
    $email_headers .= "X-Mailer: PHP\n";
    $email_headers .= "X-auth-smtp-user: noreply_AT_tongay.com\n";
    $email_headers .= "X-abuse-contact: noreply_AT_tongay.com\n";
    $email_headers .= "Content-Type: text/html; charset=\"iso-8859-1\"\n";

    Les adresses emails ont bien une arobase en réalité, désignée par une _AT_ dans le code précédent

    Le courrier envoyé était bien reçu dans la boîte de réception "Hotmail" jusqu'à hier où nous avons envoyé environ 20.000 emails pour annoncer une actualité à nos membres. Du coup nous sommes repassés en courrier indésirable.

    Je ne sais vraiment plus où donner de la tête, d'autant que d'après nos statistiques, 5 à 10% des inscriptions non validées proviendrait du fait que les personnes qui s'inscrivent ne trouvent pas l'email de confirmation permettant de valider leur inscription au site et ce malgré un avertissement précisant de vérifier le dossier de courrier indésirable.

    Avez-vous rencontré ce genre de problème vous aussi et surtout avez-vous trouvé une solution qui fonctionne à long terme? ;-)

    Merci d'avance pour vos réponses.

  3. vi je suis bien d'accord avec toi dudu, les résultats googles sont tous sauf pertinent surtout quand google indique les mots clef dans le ndd ne font pas tout, mon oeil... combien de fois j'ai vu des sites pourris mais premier grâce a leur ndd uniquement...

    A la base c'était pour permettre aux sites d'être retrouvés facilement car les mots clés utilisés qui pointent vers un site sont toujours d'abord ceux en rapport avec son nom.

    Evidement d'autres malins ont décidés de ne pas donner de véritable nom à leur site et de l'utiliser dans leur nom de domaine mais plutôt d'y placer des mots clés pour monter dans le classement y étant associé.

    Vivement que Google modifie son algorithme à ce sujet car cela devient de plus en plus fréquent et certains n'hésitent pas à utiliser des extensions genre "ws" ou "cc" qui sont rarement utilisées pour enregister des noms de domaines à mots clés.

  4. J'ai le même problème concernant les tentatives d'escroquerie en provenance de pays Africains sauf qu'étant donné le thème du site que je gère, ils jouent plus précisement sur les sentiments en essayant de nouer des liens avec les membres pour ensuite tenter de persuader la personne de lui venir en aide financièrement.

    La solution proposée d'interdire l'accès aux adresses ips en provenances de ce pays a cependant ses limites et tu vas vite t'en rendre compte. Certains plus malins que d'autres vont tout simplement utiliser des serveurs proxys provenant d'un peu partout dans le monde.

    C'est pourquoi cette petite portion de code supplémentaire est utile, mais bon le problème n'est pas réglé pour autant soit en rassuré lol.

    RewriteCond %{REMOTE_HOST} \.privacyfoundation\.de$ [NC,OR]
    RewriteCond %{REMOTE_HOST} ^tor(\.|-) [NC,OR]
    RewriteCond %{REMOTE_HOST} anonym [NC,OR]
    RewriteCond %{REMOTE_HOST} torproject [NC,OR]

    Le mot "tor" provient d'un logiciel assez répandu qui fournit des centaines d'adresses proxys dont certaines parties commencent par "tor.", "tor-" ou contiennent "torproject".

    PrivacyFoundation et Anonym sont des DNS utilisés par une série de proxys aussi.

    Pour une solution plus radicale, il faut selon moins faire du monitoring d'activité suspecte sur ton site pour parer à ce genre d'escroquerie. (détection de message envoyés en masse, ips suspectes entre autres ...)

  5. Je suis sur un serveur mutualisé.

    Sinon, je devrais peut-être mettre tous les fichiers js ensemble, mais c'est une autre histoire et je sors du sujet.

    Le problème c'est que les 2 fichiers dont tu parles sont hébergés chez Google donc tu ne peux malheureusement pas définir via ton site combien de temps ces scripts vont être gardés en cache, c'est la configuration du serveur distant qui prime puisque ce sont ses fichiers.

  6. Intéressant le site gtmetrix. L'analyse de mon petit site n'est pas trop mauvaise, mais il semble que ce qui le ralentit... c'est :

    -http://www.google-analytics.com/ga.js (1 day)

    -http://pagead2.googlesyndication.com/pagead/expansion_embed.js (1 day)

    Comment vous faites pour parer ce problème ?

    En fait c'est le temps d'expiration qui n'est pas suffisant, eux conseillent un minimum de 7 jours en cache pour tout ce qui est JavaScript, images, CSS, ...

    J'ai du décommenter quelques lignes dans ma configuration d'Apache pour que par défaut cela soit 7 jours et non 1.

    Si tu n'as pas accès au fichier de configuration d'Apache tu peux toujours utiliser un fichier .htaccess

    Le code en question:

    <IfModule mod_expires.c>
    # turn on the module for this directory
    ExpiresActive on

    ExpiresDefault "access plus 7 days"
    </IfModule>

    Edit: Autant pour moi j'ai mal lu, les fichiers ne font pas partie de ton serveur, alors ça risque d'être difficile ;-)

  7. La rapidité de chargement peut être un plus pour le crawl des pages, mais pas pour le positionnement.

    Pourtant l'internaute aime quand il peut accéder à la page et au contenu qu'il recherche rapidement non?

    Tu ne fais pas précédente pour prendre le résultat suivant lorsque ça va na pas suffisament vite et que le cache ne fonctionne pas comme prévu?

    ;)

  8. Il ne reste plus qu'à espérer que ce facteur soit pris en compte par Google et ses amis à un degré suffisament intéressant que pour que tout le monde se penche dessus.

    Je trouve que ça revaloriserai le web et notamment rendrait celui-ci plus "standardisé" car à l'heure actuelle, c'est loin d'être le cas.

    En ce qui concerne les performances de temps de chargement, je rajoute une petite adresse, il s'agit de GTMetrix qui reprends les statistiques de YSlow, ainsi que ses propres critères:


    />http://gtmetrix.com/

    Très utile pour l'optimisation de son site puisque tous les facteurs sont répertoriés et un pourcentage vous est attribué à chacuns d'entre eux, vous savez donc quelle partie optimiser. En plus il propose une optimisation des images ce qui est assez intéressant je trouve.

    En tout cas Google.com montre l'exemple avec un grade A à 99%, par contre moins fier du côté de YSlow avec un grade D à 67%.

    Je mets ma main à couper que d'ici peu de temps Google tiendra compte de ce facteur et que l'on va vite reparler de tout ça :-)

  9. Je suis d'accord avec toi valide ne veut pas dire conforme

    Si on suit la politique de Google qui est d'offrir les résultats les plus pertinents aux internautes, je pense qu'il y ai de fortes de chances pour qu'un jour ou l'autre, le fait d'avoir un site qui respecte les standards du web soit plus à même d'avoir un meilleur positionnement qu'un autre qui ne l'est pas. (en admettant que ces 2 sites soient sur le même pieds d'égalité pour tout le reste)

    L'information se trouvant sur le site soit accessible par la plupart des navigateurs, tout comme par un internaute aveugle ou mal voyant, alors que celle-ci le sera sans doute moins sur un site non standardisé.

    En ce qui concerne le temps de réponse du site, on pourrait en conclure la même chose. Un site dont l'information s'affiche en 2 secondes ou un autre dont il faut 30 secondes pour afficher le contenu de la page n'intéressera pas autant l'internaute impatient qui désire obtenir son information rapidement.

    Je suis persuadé que tout cela jouera un rôle à un moment donné (peut-être pas pour tout de suite au niveau du W3C, mais du moins le temps de réponse d'un site), Google nous donne déjà un petit indice en ayant ajouté des statistiques à ce niveau, Yahoo avec YSlow.

  10. Bonjour,

    J'aimerais pouvoir discuter avec vous de l'importance d'avoir un site dont le contenu se charge rapidement et qui respecte les normes en matière de développement web (recommandations du W3C Consortium)

    Je sais que Google donne des informations sur le temps de chargement moyen d'un site dans ses outils "Centres pour webmasters". Je suppose donc que ce critère est pris en compte par celui-ci pour déterminer le classement d'une page sur son moteur, ou bien que cela sera pris en compte dans le futur.

    En ce qui me concerne je tente au maximum de respecter les recommandations du W3C, bien que je n'ai pas encore eu l'occasion de constater de grande différence au niveau du classement dans Google après le passage de mon site de "Vieux codage avec tables" sans réel respect des normes à un passage en CSS validé en "Strict".

    Pareil au niveau du temps de réponse du site qui varie fortement dans les statistiques de Google. Pour exemple, je suis passé de 51% plus rapide que la moyennes des autres sites à 55% plus lent. Cela sans aucune modification importante du code, la différence provient de données "étranges" qui m'annoncent des temps réponse de plus de 20 secondes pour des pages légères qui s'affichent en principe en moins de 2 secondes.

    Selon vous est-ce qu'avoir un site optimisé pour l'internaute est un critère qui peut faire la différence sur un positionnement dans les résultats de Google?

    Avez-vous un retour là-dessus ou une expérience personnelle?

    Le débat est ouvert :P

  11. Donc,GOOGLE cherche à capitaliser financièrement auprès des grands comptes (il faut s'exprimer comme cela) son référencement sur les premières pages

    avec ici ou là un site gratuit (discrimination positive ?)

    Tu veux dire par là que Google pourrait par exemple favoriser un site dans ses résultats par rapport à ce que ce site même peut lui rapporter? Par exemple si le site en question est inscrit au programme AdSense?

    En gros ça voudrait dire qu'un site optimisé pour les AdSenses, avec 3 publicités par page et un bon quota de visiteurs journaliers aurait plus de poids de la classement qu'un site sans publicité proposant un contenu identique?

    Concernant le guide du Routard il possède quand même un pagerank de 6 et le nom de domaine existe depuis mi 2002, logique qu'il bénéficie d'une position "figée" dans le classement.

  12. Ton problème ne serait-il pas en rapport avec le changement d'algorithtme de Google?

    Voir l'article suivant: http://www.presse-citron.net/changement-dalgorithme-google-les-premiers-degats-collateraux

    Bien qu'il ne semble pas que tu puisses être concerné directement par cette modification au vu de ce que tu as dit précédement, c'est la première idée qui me vient à l'esprit étant donné les concordances de dates.

    En précisant l'adresse de ton site, il serait plus facile pour nous d'analyser une autre éventualité à ton problème.

  13. Si cela peut apporter des visiteurs supplémentaires de façon naturelle, c'est une bonne chose.

    Il ne reste plus qu'à espérer que les abus de cette fonctionnalité ne rendent pas celle-ci complètement inutile car on voit un peu de tout et n'importe quoi sur Facebook, entre autres les vidéos "buzz" qui dès qu'on les regardent se publient automatiquement sur son compte FB par la même occasion ...

    A voir donc :-)

  14. Tout d'abord bonjour à tous et un grand merci à la communauté de Webmaster Hub qui m'a apporté beaucoup dernièrement grâce à ses nombreux sujets sur le référencement.

    J'ai enfin décidé de m'inscrire au site pour pouvoir partager mon expérience avec vous et aussi bénéficier de vos précieux conseils par la même occasion.

    En ce qui me concerne, mon prénom est David, j'ai 25 ans, je suis de Belgique et je suis responsable d'un site internet crée en 2007 sous le nom de TonGay.com. C'est un projet de site de rencontre totalement gratuit destiné aux homosexuel(le)s et mis sur pieds par plusieurs personnes liées d'amitié et de passion. (Informatique, internet et programmation entre autres)

    Pour l'instant je suis encore aux études, en 3ème année de bachelier (Analyste - Programmeur), cela me permets d'avoir une vision globale sur de nombreux domaines relatifs à l'informatique.

    J'ai beaucoup de questions sur le référencement donc vous me retrouverez prochainement sur les forums dédiés à ce domaine ;-)

    A bientôt donc :)

×
×
  • Créer...