Aller au contenu

Très gros fichier XML


captain_torche

Sujets conseillés

Un de nos fournisseurs nous envoie un fichier XML (une base de données, en fait), pesant plus de 300 Mo.

Je sais que j'y ai presque 100 000 entrées, et j'aurai besoin, pour traitement, de pouvoir le scinder en plusieurs parties (une pour chaque entrée, pour faire simple).

Malheureusement, je ne vois pas comment faire : je sature la mémoire de PHP si j'essaye de le scripter, et je ne vois pas d'autre méthode pour le faire "off-line".

L'un d'entre vous aurait-il déjà travaillé sur des fichiers de cette taille ?

Lien vers le commentaire
Partager sur d’autres sites

Tu satures la mémoire de PHP ? oO quelle erreur t'es renvoyée ? tu utilises xml_parse ... ou un fopen à l'ancienne ?

Ce n'est pas plutôt le délais de traitement qui est trop court ? dans ce cas il suffit de modifier les paramètres du serveur, le temps de traiter le fichier.

Lien vers le commentaire
Partager sur d’autres sites

non, pour l'instant je n'utilise que fopen, je n'ai pas besoin dans un premier lieu de tout connaître du fichier XML en question.

Pour la saturation de la mémoire, c'est également une supposition, vu que je n'ai pas de message d'erreur.

Pour info, voilà comment je procède pour l'instant :

- Je lis le fichier '300Mo.xml'

- Avec une expression régulière, je délimite les bornes des expressions à séparer

- je crée autant de fichiers que j'ai d'entrées dans mon tableau généré par preg_match_all.

Après réflexion, il se pourrait que ce soit dans la seconde étape qu'il y ait un souci : je retrouve constamment le même nombre de fichiers à l'arrivée (5042), cela pourrait-il être dû à une limitation de la fonction ?

Je suis en train de réfléchir à une autre méthode, sans doute moins gourmande, en travaillant sur un fichier temporaire que je "décrémenterai" à chaque étape.

Lien vers le commentaire
Partager sur d’autres sites

Pourquoi ne pas créer les fichiers à la volé ? Le cas présent il ne me semble pas utile de coller le tout dans un tableau qui au final te fait un tmp de 300 Mo + sûrement le fopen, etc... :wacko: je ne sais pas exactement comment est gérer tout ça. Dan saurait surement nous en dire plus :whistling:

Lien vers le commentaire
Partager sur d’autres sites

Le souci, c'est que je n'ai pas la main sur le fichier source : je reçois un fichier d'environ 300 Mo, à moi de le traiter , et justement je cherche à en réduire la taille en le scindant en autant de fichiers que j'ai d'entrées.

J'aurai sans doute plus d'infos sur la réussite de mon script demain ;)

Lien vers le commentaire
Partager sur d’autres sites

Par à la volé j'entendais ne pas coller tout le résultat dans un tableau puis générer les fichiers mais générer les fichiers au fur et à mesure de la lecture du fichier source. :)

Lien vers le commentaire
Partager sur d’autres sites

Veuillez vous connecter pour commenter

Vous pourrez laisser un commentaire après vous êtes connecté.



Connectez-vous maintenant
×
×
  • Créer...