Etwas unglücklich ist der Umstand, dass eine Applikation in ein Ausgabeverzeichnis mehrere Hunderttausend Dateien binnen von wenigen Stunden erzeugt werden. Die Idee ist natürlich regelmäßig die Dateien sinnvoll zu sichern. Das soll hier gar nicht behandelt werden. Allerdings sollen die Dateien, es ist XML enthalten, auch ausgewertet werden. Bei bestimmten IO.SYSTEM.Funktion bekommt auch Visual Basic bereits mit dieser großen Datenmenge Probleme. Die Funktion GetFiles ebenso wie DirectoryInfo können mit diesen Datenmengen umgehen. Dennoch ist die Idee die große Datenmenge nicht in einem Rutsch zu verarbeiten. Wenn jedoch Päckchen gebildet werden muss man sich merken welche Dateien bereits verarbeitet worden sind. Die Idee über das Dateierstellungsdatum abzugrenzen ist hier unglücklich weil die große Anzahl, wie bereits erwähnt, innerhalb von nur 24 bis 48 Stunden, erzeugt werden. Die Idee ist also den Dateinamen in einer Referenzdatei zu schreiben und diese Referenzdatei ständig fortzuschreiben. Wird die Funktion GetFiles angewendet sollen nur noch die Dateien verarbeitet werden, die nicht in der Referenzdatei zu finden sind. Die Referenzdatei wird dazu als STRING ARRAY in den Arbeitsspeicher geholt.
Dann sollen die STRING.ARRAY.SORT und SUCH-Funktionen verwendet werden. Mir stellt sich nur die Frage ist das performant oder gibt es für das Problem ein grundsätzlich anderen, besseren Ansatz?
Also das Problem ist eher kein Problem der Programmiersprache als den richtigen Ansatz dafür zu finden :->
Dann sollen die STRING.ARRAY.SORT und SUCH-Funktionen verwendet werden. Mir stellt sich nur die Frage ist das performant oder gibt es für das Problem ein grundsätzlich anderen, besseren Ansatz?
Also das Problem ist eher kein Problem der Programmiersprache als den richtigen Ansatz dafür zu finden :->
Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von „bop99“ ()