Spidetra
-
Compteur de contenus
326 -
Inscrit(e) le
-
Dernière visite
Messages postés par Spidetra
-
-
Elle sert à quoi la sous-requête ?
ce ne serait pas plus simple ça :
SELECT CMD.id, `id_client` , `date_paiement` , `date_expedition` , `reference` , `prix` , `fr_port` , `moyen_paiement` , `numero_collissimo` , `status` , `adr_nom` , `adr_prenom` , `adr_ad1` , `adr_cp` , `adr_ville` , `adr_pays` , `OK` , CMD.comment, `mail` , `produit`
FROM `commande_tb` CMD, `client_tb` CLI
WHERE `reference` != ''
AND CMD.id
IN ('-1', '3905', etc.... )
AND CMD.id_client = CLI.id
ORDER BY `date_achat` ASCje n'arrrive vraiment pas à comprendre à quoi sert le second select ?
-
tu as de plus en plus de librairie Ajax dispo sur le web.
Dudu a cité aculo.
Tu peux aussi trouver :
Tu as aussi Rialto une de mes préférées.
Tu trouveras un autre exemple ici, un de mes sites préférés en AJax
Si tu veux te mettre à l'Ajax, tu seras obligé de te mettre au Javascript pour le côté client ( + un langage pour le côté serveur).
Toutes ces librairies ne te serviront à rien si tu ne remonte pas les manches;
Courage....
-
anorci je n'ai inscris mon site que dans les annuaires lien en dur indépendant pas dans du type mylin.. mybl.. 1annua... etcc
<{POST_SNAPBACK}>
courage et patience alors...
-
-
Mon expérience perso sur un nv site ( site de test : marque blanche ).
Uniquement 4 liens entrant à partir d'une page de PR6. Ces 4 liens pointent vers :
- la page d'accueil du site
- 3 rubriques principales
- Indexation de la home : 48 heures
- Environs 500 pages en moins de 15 jours.
C'est vrai que pouvoir faire un lien d'une page PR6, ça doit aider un peu
Ce site sert à tester l'effet sandBox, donc aujourd'hui je ne fait rien de particulier pour optimiser le positionnement.
Je ne parle donc que d'indexation et pas de positionnement.
Mon avis perso sur les annuaires de liens en dur.
je suis très sceptique sue le référencement de masse dans des annuaires de liens.
Il faut choisir et sélectionner les annuaires dans lesquels tu référence ton site.
Je me méfie en particulier des annuaires qui dupliquent leur contenu sous des dizaines de noms de domaines différents et qui sont fortements interconnectés entres eux ( liens dans le footer ).
Un article récent est sortis sur les techniques de SpamLink detection ( ce document n'est pas accessible au moment ou je poste cette réponse
Je ne dis pas que ces algos et ces techniques sont déjà en prod chez google où chez d'autres moteurs. En tout cas cela me laisse sceptique sur l'utilité de ces annuaires. Je ne m'en suis jamais servis, cela ne m'a jamais empêché de me positionner même sur des secteurs très concurrentiels.
Je ne parle pas de tout les annuaires.
-
merci pour les précisions, et l'articles sur robots.txt. instructif !
-
si j'ai bien compris ta syntaxe. ce que je ne comprend pas c'est : "commençant par".
Pour moi la syntaxe interdit la page : boutique.php?s= et seulement celle-là.
si ça marche, ça m'intéresse. merci pour l'info, ja vais aller tester
-
Bonjour,
Que veux-tu faire exactement ?
Si tu ne veux pas que les robots visitent les adresses commençant par /boutique.php?s=, tu mets ceci dans les disallow de ton robots.txt :
Disallow: /boutique.php?s=
c'est autorisé cette syntaxe ?
Je croyais que les regexp ne marchaient pas dans un robots.txt ?
-
Je n'avais pas vu la faq
<{POST_SNAPBACK}>
Normal, personne ne lis les FAQ
-
La question est pourquoi ne pas avoir intégrer cela à la Toolbar de Google ?
Pb de license pour l'instant hors US :
http://www.google.com/tools/firefox/safebr...ng/faq.html#q13
-
kazhar et Goldo73,
effectivement ce n'est pas revenu pour tout les comptes.
Mystère !
-
sur mes 2 sites je ne constate pas de ralentissement.
Maintenant le trafic est tellement ridicule sur ces istes que ce ne sont peut-être pas 2 bons exemples.
-
salut à tous,
J'ai à nouveau l'option "Add Website profiles" sur Google analytics.
c'est passé de 50 profiles à 5 profiles...
-
c'est la 2° fois que je visite ton site.
( la première suite à un post sur WRI).
1. je n'avais même pas vu la première fois que ton site d'enchères est totalement gratuit. Et pourtant c'est écrit en gros.
2. Je me suis dit : "Wahou! un site de ventes aux enchères. Bon ben, je préfère Ebay". et hop j'suis repartis.
Bonne continuation et courage
-
est-ce que tu utilises Tortoise Svn ( sous Windows ) ?
http://tortoisesvn.tigris.org/
ça te simplifie l'utilisation de Subversion.
pour moi c'est :
clic droit -> Tortoise svn -> Export
L'inconvénient de Tortoise, c'est que du coup je n'ai absolument pas progressé en subversion, donc je ne connais pas la syntaxe ligne de commande.
La doc avec subversion est bien faîtes
-
Déjà un module francophone :
h**p://outils.yagoort.org/yagooglehome.html
-
En fait je crois que la majorité des requêtes qui interrogent la bdd passent par une même page .php donc la solution que tu proposes doit être possible à mettre en place
<{POST_SNAPBACK}>
juste une précision :
- tu vas gagner en terme d'accès à la base de données.
- en contrepartie tu vas consommer plus d'espace disque. La technique implique que tu es des disques durs performants.
-
En PHP tu trouveras un article sur le JDN qui utilise PEAR::Cache_Lite
http://developpeur.journaldunet.com/tutori...s_cache1a.shtml
je ne sais pas si les fonctions de cache de PEAR sont les plus performantes.
Attention : la mise en page d'un site : demande de modifier le code de quasiment tout tes scripts PHP.
Voici un exemple de header dynamique qu fait appel à la base de données :
...
<!DOCTYPE html PUBLIC "-//W3C//DTD XHTML 1.0 Transitional//EN"
"http://www.w3.org/TR/xhtml1/DTD/xhtml1-transitional.dtd">
<html xmlns="http://www.w3.org/1999/xhtml">
<head>
<title><?php echo $t->getText( $title ); ?></title>
<meta name="description" content="<?php echo $t->getText( $description ); ?>" />
<meta name="keywords" content="<?php echo $t->getText( $keywords ); ?>" />
<meta http-equiv="Content-Type" content="text/html; charset=<?php echo $charset ; ?>" />
<link rel="stylesheet" href="<?php echo $css ; ?>" type="text/css" />
<!-- <link rel="stylesheet" href="images/ltr/interface.css" />-->
</head>
...Pour mettre en place un systeme de cache avec PEAR :
<?php
// Le code pHP de mise en cache
if ( $cache ) {
require_once( "Cache/Lite/Output.php" );
$options = array(
'cacheDir' => ROOT_PATH . $setting[ 'cache_dir' ],
'lifeTime' => $cachetime
);
// $id doit être un identifiant unique ( Ex : un ID produit )
$id = **********;
$Cache_Lite = new Cache_Lite_Output($options);
if ( $data = $Cache_Lite->get( $id ) ) {
echo($data);
return;
}
$Cache_Lite->start( $id );
}
// fin de la gestion du cache
// le reste de la page ne change pas
?>
<!DOCTYPE html PUBLIC "-//W3C//DTD XHTML 1.0 Transitional//EN"
"http://www.w3.org/TR/xhtml1/DTD/xhtml1-transitional.dtd">
<html xmlns="http://www.w3.org/1999/xhtml">
<head>
<title><?php echo $t->getText( $title ); ?></title>
<meta name="description" content="<?php echo $t->getText( $description ); ?>" />
<meta name="keywords" content="<?php echo $t->getText( $description ); ?>" />
<meta http-equiv="Content-Type" content="text/html; charset=<?php echo $charset ; ?>" />
<link rel="stylesheet" href="<?php echo $css ; ?>" type="text/css" />
<!-- <link rel="stylesheet" href="images/ltr/interface.css" />-->
</head>
<body>
<?php
if ( $cache ) {
// c'est ici que la mise en cache de la page se passe.
$Cache_Lite->end( );
}
?> -
En fait il faut préciser :
Version 2
<{POST_SNAPBACK}>
J'utilise pas google destktop, c'était juste pour communiquer l'info
-
Ton site fonctionne avec quel langage ?
-
D'après les infos que j'ai, ce qui consomme beaucoup sur mon site c'est apache et mysql
En fait à chaque fois qu'on doit afficher une page on appelle la base de donnée mais tous les sites dynamiques fonctionnent ainsi non ?
<{POST_SNAPBACK}>
Surtout MySQl, non ?
Oui, tout les sites fonctionnent comme ça, mais regarde les sites de E-Commerce, ils ont tous mis en place un système de cache plus ou moins complexe.
OSCommerce gère la mise en cache des données.
Les sites à très fort trafic externalisent leur système de cache à des sociétés comme Akamai.
Augmenter la puissance du serveur, sans optimiser le site, ne sert pas à grand chose.
dans six mois, je te le souhaite, tu auras le même pb si ton trafic continue à croitre.
-
ensuite en fin de page je mets ça:
Tu récupère bien les infos du formulaire quand même ( par POST ou par GET ) ?
-
je sais que tu aimerai avoir la réponse directement, je vais me contenter de te donner une piste.
Essaye de comprendre comment communque ton formulaire et ton script php.
En haut de script essaye, et regarde ce que contiennent ces variables :
var_dump($_REQUEST);
var_dump($_POST);
var_dump($_GET); -
Tu veux dire des sessions qui seraient stockées dans la base de donnée (dans une table visiteurs par exemple) ?
<{POST_SNAPBACK}>
Non, je veux dire un système de cache. Ces systèmes sont plus ou moins facile à implémenter selon les langages.
exemple avec une fiche produit :
- Tu génère la page une première fois => accés à la base de données
- dans ton système, tu décide d'un temps de mise en cache ( 1H, 1 jour ).
- Ensuite les autres visiteurs accéderont à la version en cache et non plus à la version dynamique ( jusqu'à expiration du cache).
Si sur ta page, certains éléments doivent rester dynamique : la quantité en stock.
Il est possible de faire du cache par fragment de page.
La pluspart des langages ( PHP, java, dotNet ) permettent de gérer des systèmes de caches.
C'est, à mon avis, la première étape vers l'optimisation, mais il faut que ce soit intégrer lors du dev de l'appli.
Il existe aussi des possibilités de mettre en cache les requêtes SQL sur certains SGBDR.
Référencement et Dotclear ...
dans Techniques de Référencement
Posté
Salut,
Non, j'ai un blog dotClear, de base, indexées par Google sans pb.