-
Compteur de contenus
3 376 -
Inscrit(e) le
-
Dernière visite
Tout ce qui a été posté par Cariboo
-
Euh ... tu peux préciser ta question, je ne suis pas sûr d'avoir compris là ?
-
Il y'a quelque chose qui manque dans spip pour gérer proprement un agenda : une "date de fin de validité"... Le critère "age" permet de faire disparaître les évènements dès qu'ils atteignent un age choisi uniformément quel que soit l'article (exemple : 7 jours). Mais comment faire disparaître un article donné le lendemain à minuit de la fin de l'évènement ? Cela induit une règle différente pour chaque article. Jusqu'à la version 1.7.2 : rien n'était prévu. J'ai donc bidouillé spip pour rajouter un champ date supplémentaire, et un critère "age_valid" qui compare la date système à la date à laquelle l'évènement doit disparaître (age_valid < 0 pour que l'article soit valide) Dans la version 1.7.2, un champ date supplémentaire a été ajouté, que j'utilise dorénavant comme date de fin de validité : il s'agit du champ "date de publication antérieure". Le critère "age_redac" peut-être utilisé dans ce contexte, mais à l'envers du système proposé. Dans 1.7.2, on peut passer aussi la date en paramètre dans l'url, et créer une boucle qui utilise le critère "age_relatif", ce qui est sympa et ouvre bien des possibilités.
-
Googleguy a répété a plusieurs reprises que la limite était de 101 ko. C'est précis... Si on regarde l'index de Google, on ne trouve pas de pages dont la taille annoncée est supérieure à 101 ko... J'ai regardé des pages de 101 ko de plus près : leur taille réelle est supérieure à 101 ko (cela on pouvait s'y attendre). La page en cache est-elle tronquée ? Non... Les derniers liens au delà de la limite de 101 ko sont ils oubliés. Non... (vérifié sur mes propres pages). Y'a de quoi être perplexe.
-
Problème avec la commande "link:" pour mon site
Cariboo a répondu à cooloweb - Forum : Techniques de Référencement
Le fait que link: ne montre aucun lien ne signifie pas que Google n'ait pas repéré tes backlinks. La commande link: ne renvoie qu'un échantillon limité des backlinks. La façon dont Google choisit cet échantillon a toujours laissé tout le monde perplexe. Jusqu'à une époque récente, on était sur de deux critères : pas de liens émanant de pages à faible PR, pas plus de 1000 backlinks visibles (même si le compteur en affichait 4500). Il y'a quelques jours, Google a changé sa manière de sélectionner cet échantillon, et on voit maintenant des pages à faible PR dans les réponses. -
Je viens de publier un article dans la partie "publication" du Hub sur les théories émises pour expliquer les changement de comportement de Google depuis un an. J'ai rédigé cet article en constatant que beaucoup raisonnaient encore en fonction d'informations qui dataient un peu... Or le moins que l'on puisse dire, c'est que le temps des Googledance mensuelles et des deepcrawls est bien fini... Google vient même de décider de débaptiser Googlebot ! Il l'appelle dorénavant ... le bot de Google. Les plus attachés à l'ancien fonctionnement nous dirons sûrement que la nostalgie n'est plus ce qu'elle était, les plus tournés vers l'avenir que Google est loin d'avoir achevé sa mutation. Voila l'url de l'article, qui a été coupé en deux parties : Quelques pistes pour comprendre le nouvel algorithme de Google Quelques pistes pour comprendre le nouvel algorithme de Google (deuxième partie) Si quelqu'un à d'autres théories, ou une idée sur le fonctionnement actuel de l'algorithme de classement de Google, n'hésitez pas à les présenter dans ce fil.
-
Tu es libre... Nous sommes dans un pays libre... Et tu crées ta boutique où tu veux. Par contre, si tu ne va pas vivre aux Iles Caïmans, et si tu veux rapatrier tous tes revenus en France, il va falloir payer des impots en France... C'est pas si simple tout ça...
-
Maryse, tu as le droit de poster sur plusieurs forums si tu en as envie, le risque que quelqu'un a évoqué dans son MP existe peut-être (quoique ? ), mais tu peux effectivement obtenir des réponses différentes (ou pas). Après c'est à toi de voir. Pour les mérites respectifs de H1, H2 par rapport à font size 4 ou 5 : la réponse traditionnelle est de privilégier <B>, <STRONG> et <H1> à la taille des caractères, mais Google fait évoluer sans cesse ses critères, et bien malin qui connait à cet instant le poids respectif des critères dans Google. Certains ont même cru observer que les mots clés entourés de balises "a href" semblent avoir plus de poids ces derniers temps. Pour les logiciels de soumission automatique : à n'utiliser sous aucun prétexte. Pour ton bas de page : le laisser comme c'est ne te fait pas perdre beaucoup, mais oui, le style ne peut faire que du bien. Pour tes pages "chansons" : plus tu as de pages, mieux tu seras référencée (à condition d'avoir une bonne structure de liens internes) Quant à la densité dans le title : il faut y faire attention mais surtout pour les autres moteurs que Google...
-
Cette erreur signifie que le masque de recherche est vide dans la fonction ereg(). Ce n'est pas très normal. Deux explications possibles : - pb avec le squelette : fichier partiellement uploadé, ou fichier skel_ dans le cache bogué. Solution : ré-uploader le squelette complètement, vider le cache, supprimer le fichier skel_xxx dans le répertoire CACHE générant les pages de ce squelette. En principe cela marche. - deuxième explication : pb de config apache (aïe, pas toujours simple à résoudre quand on a pas la main). La première explication est la plus probable...
-
la commande session_start doit être insérée au début du script, avant que le serveur php ait eu l'occasion d'envoyer la moindre balise html... Là, visiblement, une page a déjà commencé à être envoyée, d'où le message d'erreur...
-
Pwet-Pwet a raison, sur la présence de liens PR2 et PR3 dans les backlinks, cela avait été annoncé depuis plusieurs semaines suite aux remarques faites pendant la SES de Londres. Ces "nouveaux backlinks" sont apparus sur certains sites voila déjà quelques jours, la nouveauté, c'est que cela se généralise... Mon site principal, qui était tombé à moins de 400 backlinks depuis plusieurs mois, remonte à plus de 1190 ! Et je découvre de très nombreux nouveaux backlinks jamais vus avant (dont plein de backlinks qui viennent du Hub), et quelques perles. Parmi ces dernières, un backlink en provenance d'un autre forum bien connu, qui va rappeler des souvenirs à un certain hetzeld -http://www.webrankinfo.com/forums/printtopic_1958.htm Page intitulée "changements dans l'algorithme du pagerank" Mais elle date de mars 2003 Sinon, je ne crois pas à un retour vers un index précédent, car les changements dans les pages et les nouveaux sites sont bien là. Par contre, Dan, j'observe comme toi un retour à la situation ancienne sur certaines requêtes, ce qui pourrait s'interpréter comme un repentir de Google quant à certaines modifications de filtres ou de poids entre les différents critères...
-
Good news ! Mais comme d'habitude, je vais attendre un peu avant d'installer PHP5 sur mes serveurs... Même si j'ai l'impression que PHP5 est beaucoup plus abouti que PHP4 lors de sa sortie, je préfère que d'autres essuient les plâtres... Et découvrent les éventuelles bogues, et problèmes inattendus. Par ailleurs, pour en avoir discuté avec certains hébergeurs comme Nexen (qu'on ne peut pas soupçonner d'être mal informés sur PHP), il va s'écouler un temps certain avant que PHP5 ne supplante PHP4 sur les hébergements mutualisés. Il faut s'attendre à un délai de plusieurs mois, un semestre probablement. Bref, on a tout le temps pour apprendre le PHP5, et pour adapter nos applications existantes...
-
La réponse est : les deux mon capitaine... Les contrats préétablis imposés par la loi, cela n'existe pas : il t'appartient de rédiger le tien (autrement formulé : tu es libre de les rédiger comme tu le souhaites). Toutefois, certaines clauses peuvent être obligatoires, d'autres au contraire sont "réputées non écrites", c'est à dire nulles si tu les insères dans un contrat, d'autres encore illégales. Le droit des contrats est l'un des plus "touffus" qui soit. Pour ne pas faire d'erreur, il convient d'en connaître les principes (théorie juridique et clauses du code civil afférentes) et de bien maîtriser la législation et la réglementation (code du commerce, code de la consommation, autres codes). Certains contrats de vente sont par ailleurs soumis à des réglementations particulières : vente à distance (souvent applicable à internet), vente à crédit, immobilier etc... Bref, rédiger un contrat depuis zéro n'est pas à la portée d'un débutant, le mieux est de s'inspirer de plusieurs contrats existants sur des ventes de produits identiques au tien. Et avoir l'avis d'un avocat spécialisé peut s'avérer utile (attention : j'ai dit spécialisé, tous les avocats ne sont pas compétents en matière commerciale)
-
Effectivement, cela viole théoriquement le droit d'auteur sur la couverture de l'album... Il faut en toute rigueur demander l'autorisation de la maison de disque... et de l'auteur de la couverture. Je reconnais que dans la pratique cela n'est pas simple.
-
Les fonctions d'indexation sous spip ont été revues pour la version 1.7.2 Le moteur de recherche marche (beaucoup) mieux, par contre l'indexation a des hoquets. Les développeurs de SPIP ont caché cette page dans le module d'admin, qui permet de forcer l'indexation au cas où : monsite.com/ecrire/admin_index.php3 Pour y accéder, il faut être identifié dans le module d'admin... Tu choisis "forcer l'indexation" et hop, le tour est joué. Après il faut surveiller si tout marche bien en regardant le contenu de spip.log dans monsite.com/ecrire/data/
-
Oui, c'est un risque... Il existe un délit d'aide au proxenetisme ... Des personnes ont été poursuivies pour cela, la jurisprudence est floue sur le sujet Donc je serais à ta place, je fermerai le site. Article 225-5 (Loi nº 2001-1062 du 15 novembre 2001 art. 60 Journal Officiel du 16 novembre 2001) (Ordonnance nº 2000-916 du 19 septembre 2000 art. 3 Journal Officiel du 22 septembre 2000 en vigueur le 1er janvier 2002) (Loi nº 2003-239 du 18 mars 2003 art. 50 1º Journal Officiel du 19 mars 2003) Le proxénétisme est le fait, par quiconque, de quelque manière que ce soit : 1º D'aider, d'assister ou de protéger la prostitution d'autrui ; 2º De tirer profit de la prostitution d'autrui, d'en partager les produits ou de recevoir des subsides d'une personne se livrant habituellement à la prostitution ; 3º D'embaucher, d'entraîner ou de détourner une personne en vue de la prostitution ou d'exercer sur elle une pression pour qu'elle se prostitue ou continue à le faire. Le proxénétisme est puni de sept ans d'emprisonnement et de 150000 euros d'amende. Article 225-6 (Loi nº 2003-239 du 18 mars 2003 art. 50 1º Journal Officiel du 19 mars 2003) Est assimilé au proxénétisme et puni des peines prévues par l'article 225-5 le fait, par quiconque, de quelque manière que ce soit : 1º De faire office d'intermédiaire entre deux personnes dont l'une se livre à la prostitution et l'autre exploite ou rémunère la prostitution d'autrui ; 2º De faciliter à un proxénète la justification de ressources fictives ; 3º De ne pouvoir justifier de ressources correspondant à son train de vie tout en vivant avec une personne qui se livre habituellement à la prostitution ou tout en étant en relations habituelles avec une ou plusieurs personnes se livrant à la prostitution ; 4º D'entraver l'action de prévention, de contrôle, d'assistance ou de rééducation entreprise par les organismes qualifiés à l'égard de personnes en danger de prostitution ou se livrant à la prostitution.
-
Ah oui mais non ! echo c'est du php, donc il faut placer l'instruction entre des balises <?php et ?> sans oublier le ; à la fin <?php echo "<"."?xml version=\"1.0\" encoding=\"iso-8859-1\"?".">"; ?>
-
Erreur typique Euh, tu n'aurais pas écrit un truc du genre echo "<?xml" dans ton code ? Parce que c'est une mauvaise idée... <? dans une page php, c'est la balise php... Donc ton backend génère une ligne, puis une erreur de syntaxe php en ligne 2... déjà ça, ça marche mieux : echo "<"."?xml
-
Tururillo, il faut que l'on te resitue tout cela dans son contexte En fait d'expérience, le premier et unique objectif de ce changement de code IPB était bel et bien de distribuer des "vrais" backlinks aux membres de webmaster-hub. Pas de faire une expérience de laboratoire sur la fuite de PR. Certains ont prédit à Dan une catastrophe s'il faisait cette modification. Dan n'y croyait pas, a juste dit "on verra bien si les Cassandre avaient raison". Et ils avaient tort. Ta critique, Tururillo, sur le manque de scientificité est donc injuste, car personne n'a voulu mener de véritable là-dessus. Mais tu es pardonné, car tu ne connaissais pas forcément ce contexte. Je suis désolé, mais c'est totalement faux ! Tu ne considères qu'une itération de l'algorithme du pagerank en disant cela, et en plus, tu ne regardes qu'une portion réduite à une page de la matrice des liens... Si ta page ne pointe pas que vers des liens externes, mais aussi vers la page d'accueil de ton site (cas classique), la page d'accueil reçoit aussi un backlink avec un PR plus réduit, ce qui réduit le PR de la page d'accueil, et donc aussi le PR de la page que tu considères comme fixe ! QED Ce raisonnement "global" au niveau de la matrice des liens explique pourquoi la fuite de PR n'a pas eu d'effet sur webmaster-hub. Vous avez peut-être l'impression que Dan, qui connait bien l'algorithme, a juste eu une bonne intuition, mais en fait, ce qu'il vous a expliqué reflète parfaitement la réalité mathématique du calcul de PR. Comment Dan a-t'il expliqué la non-fuite du PR (je paraphrase) : la fuite du PR est compensée par le fait qu'un certain nombre de sites ont fait des liens vers webmaster-hub... En fait, cela résulte de quelque chose qui a été maintes fois démontré sur le web : l'existence de communautés. Si l'on regarde la structure des liens qui relient les pages web, on s'aperçoit qu'il existe des noyaux de sites hautement interconnectés. Le Hub se trouve maintenant clairement placé au centre d'un tel noyau... Le PR d'un groupe de sites hautement interconnectés se stabilise rapidement autour d'une valeur fixe. Seul l'apport ou la perte de backlinks exogènes peuvent faire perdre ou gagner du PR. Dans cet environnement, le fait de lâcher des backlinks en direction de sites qui font partie de la même communauté n'aboutit pas une perte de PR, mais à des effets neutres (totalement dilués)... Si tout le monde fait la même chose, cette pratique a même tendance a faire augmenter le PR... C'est ce qui explique les conseils de Matt Cutt de Google (créez des liens vers des sites de la même thématique). Depuis l'utilisation du blockrank, la matrice des liens utilisée par Google est à deux niveaux, et le rôle des communautés de sites interconnectés est amplifié dans le référencement.
-
Conclusion : j'en connais plein qui me disent que le php, pour eux c'est de l'hébreu ! En fait ils ont raison : de temps en temps, php leur parle en hébreu
-
Incontestablement, le mieux est de ne pas utiliser de frames du tout. Pas de frames, pas d'iframes. La solution, ce sont bien les includes php... et cela ne gêne pas pour faire quelque layout que ce soit... En fait, les include php servent, lorsque l'on définit des pseudoframes, a "stocker" dans un fichier unique, tous les bouts de code qui sont communs à plusieurs codes (comme un en-tête, un menu, un footer, ...). Plutôt que de répéter le même code plusieurs fois, on fait appel à l'include et le tour est joué.
-
Il est évident que tes articles sont tapés dans une autre table de caractères que celle que tu prévois dans le fichier xml généré par le backend ! Vérifie que tu as bien un attribut encoding défini dans la balise <xml à la première ligne. ex : encoding="iso-8859-1" soit la table de caractères européennes, avec les accents Vérifie que tu utilises bien cette table de caractères dans ton site... Ta sortie ressemble plutôt à un codage simplifié, tous les caractères supérieurs à 127 ne sont pas reconnus ? Ou un codage mac peut être ? Tant que tu envoies des codes non reconnus dans un flux xml, tu auras ces messages d'erreur. Et tu as bien des htmlspecialchars à supprimer en plus. "v�hicule en manipulant (...)"
-
Il ne reconnait pas le filtre, donc il y'a forcément une erreur de syntaxe quelque part... Quelle version de php utilises tu ?
-
en fait, il suffit de créer un fichier appelé "mes_fonctions.php3" pour ajouter tes propres filtres à SPIP. Le code mentionné plus haut, il te suffit de l'intégrer dans ce nouveau fichier, tu le places dans le répertoire où sont situés tes squelettes spip, et hop ! le tour est joué Tu n'as rien à paramétrer, spip s'attend à trouver des fonctions personnalisées dans ce fichier... Les nouvelles erreurs que tu as viennent du fait que tu utilises un filtre inconnu. Elles devraient disparaître une fois la fonction ajoutée dans le fichier mes_fonctions...
-
Effectivement... Sauf si un tordu tape " " dans un article (ce qui arrive quand même). J'ai retrouvé ça dans mon fichier "mes_fonctions.php3"; function decode_htmlentities($texte) { // fonction qui enlève les entités html des flux spips. Utile pour les flux RSS et XML $corr=html_entity_decode($texte); return $corr; } Et la syntaxe d'utilisation dans le backend.html <BOUCLE_1(RUBRIQUES){id_secteur=103}{par titre}> <item> <title>[(#TITRE|decode_htmlentities)]</title> <link>#URL_SITE_SPIP/#URL_RUBRIQUE</link> <description>[(#DESCRIPTIF|decode_htmlentities)]</description> </item> </BOUCLE_1> </channel>
-
J'ai testé cette nuit le nouveau moteur. Et mon opinion c'est : bof... C'est même n'importe quoi Je rejoins tout ce qui a été déjà remarqué : oui, il fait la part belle aux métas (si si, il a l'air d'en tenir compte), aux mots-clés dans l'url (pour le spamdexing, ça va être sympa). La pertinence des résultats est correcte sans plus, mais est-ce mieux ou moins bien que Google, pour l'instant difficile à dire... Bon, tout cela n'a rien de révolutionnaire, ils ont donc décidé de sortir un moteur du même niveau que les autres, voire inférieur aux autres... Ce qui est hallucinant, c'est que les gens de chez Microsoft avouent que leur moteur sort dans une version "brute de décoffrage", et avouent aussi que ce moteur est mauvais sur certains types de requêtes !! Ils annoncent un index de 1 milliard de pages (heureusement que la pertinence ne dépend pas que de la taille de l'index) Il faut se méfier quand même de ce que l'on voit, je rappelle que si on enlève les "filtres spéciaux" de Google, et les petits ajustements subtils ici et là dans les critères de classements, les premières pages de résultat de Google ressembleraient aussi à ça... Au fait, ça c'est le lien vers la version française du moteur de microsoft : http://techpreview.search.msn.fr/ PS : attention, parce que la communication de Microsoft commence à devenir confuse, ce qui change en juillet, c'est le "look and feel" de MSN Search powered by Yahoo, on ne sait toujours pas quand le nouveau moteur Microsoft remplacera Yahoo... Avant fin 2005 ?