Aller au contenu

Remi

Hubmaster
  • Compteur de contenus

    936
  • Inscrit(e) le

  • Dernière visite

Tout ce qui a été posté par Remi

  1. Bonjour, J'ai une tâche php en CRON qui va lire un certain nombre de flux RSS en utilisant MagpieRss. Dans le lot, j'ai un flux qui est local : si je lance moi-même le script php, tout marche bien, mais en CRON mon flux local (un flux dotclear donc rss.php) n'est pas lu correctement. Je suppose qu'en mode shell l'adresse http:... est transformée en adresse locale et donc mon rss.php local ne s'execute pas et à la place c'est le contenu du script qui est lu. Y a t-il un moyen d'éviter cela ? (sachant que je n'ai pas accès à la config du serveur, ni à la crontab) J'ai trouvé un moyen pas très élégant de contourner le problème : ma tâche en Cron demande à un autre serveur de venir lire mon flux rss local et de me le transmettre.
  2. Oui, ils en ont le droit. Et attention, si c'est celui auquel ton message me fait penser (celui dont les initiales sont RI), ils faut prendre leur modèle de lettre, sinon c'est aussi efficace que souffler dans un violon. En revanche, je ne vois pas pourquoi tu voudrais opérer "discrètement". Faire des choses à l'insu d'un client n'est à mon avis jamais une bonne chose.
  3. Kbis ou carte d'identité si tu n'es pas un professionnel, mais le changement de propriétaire est une procédure bien plus compliquée que le changement des contacts. Pour OVH, tout est détaillé ici : http://ovh.com/fr/support/procedures/chang...roprietaire.pdf
  4. C'est à la personne à laquelle tu le cèdes de faire la demande de transfert. Changer les gestionnaires (les 3 contacts) c'est facile et courant. Changer le propriétaire du nom de domaine est une procédure plus lourde (dossier avec copie des Kbis de l'acheteur et du vendeur, etc...)
  5. Personnellement, je trouve qu'il y a trop de publicités. Même ton titre de site est visuellement "mangé" par les deux carrés blancs de pub qui l'encadrent. Quand il est trop dur de distinguer ce qui est contenu et ce qui est pub, le visiteur repart.
  6. D'accord pour les snippets, mais n'y a t-il de risques au niveau de duplicate éventuels ? Par exemple, comment faites-vous avec les blogs genre Dotclear, où une même page est accessible par 2 ou 3 URL différentes ? Vous laissez Google indexer les 3 ? Moi je mets les autres URL en noindex... ...mais bon, peut-être est-ce inutile (surtout que si ça se trouve, je suis le seul à faire cela )
  7. Pour cette procédure, il faut que les pages retournent un 404. Comment feriez-vous avec une centaine de pages d'images en gros plan ? (contenus très réduits et identiques + titres proches voire identiques) Au début, je laissais Google les indexer et tout passait en "pages ignorées"... et je me demande toujours si Google ne fait pas un bête ratio "nb de pages ignorées / nb de pages total", un ratio qui ne me semblerait pas idiot de faire entrer dans le calcul de l'intérêt global d'un site.
  8. Il faut mettre l'adresse que le script t'a donné (elle commence par /kunden/...) et tu rajoutes au bout les spus-répertoires de ton site (si j'ai bien compris : gallery5/g2data/) c'est tout. Oublie le reste... Tu peux aussi mettre le script que je t'ai donné dans le répertoire désiré, et là il te donnera l'adresse complète.
  9. Je viens d'essayer (car je viens de me rappeler que j'avais un truc chez 1&1), leur adresses serveur sont assez compliquées : /kunden/... Utilise le petit script que je t'ai donné.
  10. Je ne connais pas 1&1 mais les adresse serveurs en mutualisés sont souvant sous la forme : /home/identifiant/www/... Pour la connaître, fais un un simple PHP avec <? echo $_SERVER['SCRIPT_FILENAME']; ?> et tu auras l'adresse de ta racine.
  11. En fait, au départ, j'ai mis toutes ces pages en noindex car elles n'ont pas de contenu texte, pour éviter qu'elles sortent en 'pages ignorées'... Mais comme elles sortent en 'pages similaires', l'effet n'est pas très réussi.
  12. Oui, effectivement. Il sort ces pages quand les mots sont dans l'url. J'arrive à faire sortir de cette façon des pages protégées par robots.txt de mon premier exemple. Et là, ce sont des pages que Googlebot n'est jamais venu lire. J'en suis certain. Faut-il mettre un "rel nofollow" sur le lien comme le suggère Anonymus ? (mais à mon avis, le 'rel nofollow' a une autre fonction)
  13. Comment ça, des pages d'autres sites ? C'est une commande site:ww... donc tu as toutes les pages d'un même site. Mais c'est un autre site que celui de mon premier exemple, c'est vrai. Par contre, quand je te disais 'en bas', c'est parce que je liste les résultats Google par pages de 100... Si tu es en mode normal (10), va directement à la page 9, j'ai bien 150 résultats en page similaires, toutes les pages en 'noindex'.
  14. Ah, mais c'est qu'il ne me croit pas... Bon, alors je te donne un exemple de pages en noindex sans bloquage par robots.txt : http://www.google.fr/search?hl=fr&q=site%3...u-barrejats.com et regarde tous les liens en 'pages similaires' en bas Non, je crois qu'il affiche par la commande 'site:' toutes les pages dont il connait l'existence d'une façon ou d'une autre. Cela ne veut pas dire que toutes ces pages sont susceptibles de sortir dans une requête normale. Ce que je voulais te dire au début, c'est qu'il ne faut utiliser la commande 'site:' pour vérifier si Google a bien respecté les consignes de noindex.
  15. Des exemples, j'en ai pas mal mais c'est assez net sur un site tout neuf (2-3 semaines), car là je suis certain que la page a toujours été en noindex -http://www.tarlant.fr/fr/imgp.php?im=travaux-vigne-01 D'ailleurs quand tu fais la commande 'site:', toutes mes gros plans de photos apparaissent à la fin en pages similaires. Il n'affiche pas le titre de la page. Ou encore : Cette page http://www.tarlant.com/en/press.php jusqu'à ce matin, elle était en 'noindex' et en plus, interdite par le 'robots.txt'... et pourtant elle apparait dans la commande 'site:'. En revanche, j'en suis certain, le googlebot n'est jamais venu la lire et c'est pourcela qu'il ne peut pas mettre le titre. Il indique seulement qu'il a connaissance que la page existe parce qu'il y a des liens vers elle.
  16. Si tu veux que cela marche dans la majorité des cas, il faut le mettre à la racine. IE ne s'occupe pas de la directive 'link', il regarde si favicon.ico existe à la racine.
  17. Très bonnes pages en effet. J'aurais juste ajouté que le fait qu'une page en 'Meta Noindex' apparaisse dans les résultats de la commande 'site:' de Google ne signifie pas qu'il n'a pas respecté la directive : La dite-page ne sortira pas dans une requête normale.
  18. Une routine javascript appelée comme l'a dit Cendrillon par simple onclick (sans return false of course). La routine s'appelle 'clk' et appelle un script (sans doute index.php) avec les paramètres... Il y a 2-3 ans, le comptage n'était branché que par moments mais cela fait un bout de temps qu'il est là en permanence. Je pense que s'ils ne le mettent que sous IE, c'est sans doute à cause du 'if (document.images)' qui si je me souviens bien, ne marchait pas sous NN4. Je pense que ce comptage est surtout là pour vérifier l'impact des changements d'algorithme, mais cela peut servir à tout un tas de choses...
  19. Le comptage sur les pages de résultats n'est branché que sous IE (et ça fait longtemps que c'est comme cela. Je ne sais pas pourquoi ils ne le branchent pas pour les autres navigateurs parce que la routine marche sous Firefox)
  20. Déjà il y a le fait qu'il faudra renouveler son domaine chez eux : on s'engage à ne pas le transférer pendant 3 ans et comme on ne peut transférer un NDD arrivé à terme.... En pratique, il faudra donc aussi renouveler l'hébergement.
  21. Ah, ben à ton tour de nous aider... Puisque tu as lu beaucoup de choses sur le sujet, peux-tu me dire quel sont les inconvénients de la solution que je te proposais... (à part que margin:auto n'est pas reconnu par IE5.2 et inférieur (2% des visiteurs) et NN4 (0,01%) et dans ce cas la page se met à gauche, ce qui ne m'empêche pas de dormir vu que c'est rare d'avoir un browser très ancien et un écran large). Je ne demande pas ça pour polémiquer... S'il y a un autre inconvénient, j'aimerais sincèrement le savoir.
  22. Le principe global est : body{text-align:center;} #mapage{margin:0 auto;width:...;text-align:left;} Et tu mets tout ton contenu dans le div 'mapage'. (Ne pas oublier de définir la largeur de 'mapage')
  23. Non, non... Il y a plein de cas où cela ne marchera pas. Mais à la base le principe est simple : déjà, pour que le navigateur puisse centrer, il faut que la largeur du contenant soit connue de lui. Allez centrer une image dans un 'div' dont vous ne connaissez pas la taille, pas facile... Et deuzio, il faut qu'il connaisse la taille de l'élément à centrer. Et là, le "display:" (inline / block) de l'image peut interagir...
  24. Je crois qu'il voulait seulement centrer sa page. Il existe des manières beaucoup plus simples de centrer horizontalement (en 2 lignes de CSS) que d'utiliser des procédés qui ont l'air un peu archaïques (ça me rappelle Netscape 4 où il fallait reloader la page à chaque redimensionnement de fenêtre quand on utilisait des calques... ;-) )
  25. Ton script est très intéressant. Ce qui m'embête un peu, c'est de bloquer les gens qui naviguent avec un browser sans referer (cf. l'option dans Opera ou certains plugins).
×
×
  • Créer...