captain_torche Posté 29 Avril 2008 Posté 29 Avril 2008 Un de nos fournisseurs nous envoie un fichier XML (une base de données, en fait), pesant plus de 300 Mo. Je sais que j'y ai presque 100 000 entrées, et j'aurai besoin, pour traitement, de pouvoir le scinder en plusieurs parties (une pour chaque entrée, pour faire simple). Malheureusement, je ne vois pas comment faire : je sature la mémoire de PHP si j'essaye de le scripter, et je ne vois pas d'autre méthode pour le faire "off-line". L'un d'entre vous aurait-il déjà travaillé sur des fichiers de cette taille ?
Ifmy Posté 29 Avril 2008 Posté 29 Avril 2008 Tu satures la mémoire de PHP ? oO quelle erreur t'es renvoyée ? tu utilises xml_parse ... ou un fopen à l'ancienne ? Ce n'est pas plutôt le délais de traitement qui est trop court ? dans ce cas il suffit de modifier les paramètres du serveur, le temps de traiter le fichier.
captain_torche Posté 29 Avril 2008 Auteur Posté 29 Avril 2008 non, pour l'instant je n'utilise que fopen, je n'ai pas besoin dans un premier lieu de tout connaître du fichier XML en question. Pour la saturation de la mémoire, c'est également une supposition, vu que je n'ai pas de message d'erreur. Pour info, voilà comment je procède pour l'instant : - Je lis le fichier '300Mo.xml' - Avec une expression régulière, je délimite les bornes des expressions à séparer - je crée autant de fichiers que j'ai d'entrées dans mon tableau généré par preg_match_all. Après réflexion, il se pourrait que ce soit dans la seconde étape qu'il y ait un souci : je retrouve constamment le même nombre de fichiers à l'arrivée (5042), cela pourrait-il être dû à une limitation de la fonction ? Je suis en train de réfléchir à une autre méthode, sans doute moins gourmande, en travaillant sur un fichier temporaire que je "décrémenterai" à chaque étape.
Portekoi Posté 29 Avril 2008 Posté 29 Avril 2008 tu parses un nombre de tag (1000), tu les supprimes, tu recréé le fichier, tu rafraichis la page et tu boucle tant que tu as des balises de valeurs ++
Ifmy Posté 29 Avril 2008 Posté 29 Avril 2008 Pourquoi ne pas créer les fichiers à la volé ? Le cas présent il ne me semble pas utile de coller le tout dans un tableau qui au final te fait un tmp de 300 Mo + sûrement le fopen, etc... je ne sais pas exactement comment est gérer tout ça. Dan saurait surement nous en dire plus
captain_torche Posté 29 Avril 2008 Auteur Posté 29 Avril 2008 Le souci, c'est que je n'ai pas la main sur le fichier source : je reçois un fichier d'environ 300 Mo, à moi de le traiter , et justement je cherche à en réduire la taille en le scindant en autant de fichiers que j'ai d'entrées. J'aurai sans doute plus d'infos sur la réussite de mon script demain
Ifmy Posté 30 Avril 2008 Posté 30 Avril 2008 Par à la volé j'entendais ne pas coller tout le résultat dans un tableau puis générer les fichiers mais générer les fichiers au fur et à mesure de la lecture du fichier source.
captain_torche Posté 30 Avril 2008 Auteur Posté 30 Avril 2008 Je suis en train d'essayer comme ça, mais c'est pour l'instant extrêmement lent. Je vais voir si je peux trouver mieux
captain_torche Posté 30 Avril 2008 Auteur Posté 30 Avril 2008 Bon, un ancien collègue m'a dépanné, son script fonctionne bien mieux que le mien. Dans le principe, il lit le fichier ligne par ligne, et génère les fichiers correspondant au fur et à mesure.
Sujets conseillés
Veuillez vous connecter pour commenter
Vous pourrez laisser un commentaire après vous êtes connecté.
Connectez-vous maintenant