Hallo zusammen,
Ich stehe mal wieder vor einem Performanceproblem mit einem meiner Programme. Ich habe mehrere txt Dateien gefüllt mit Datensätzen. Dabei sind die Einzelnen Datensätze dirch Zeilenumbrüchen, und die Werte mit Tabstops voneinander getrennt. Aufgabenstellung ist es jetzt die Dateien auszulesen und in eine Datenbank zu packen. (MS-SQL 2012).
Grundsätzlich habe ich das von der Funktion her auch schon umgesetzt. Ich lese die Textdateien Zeilenweise ein, trenne dann die Werte über den Split Befehl auf, prüfe ob der Datensatz schon in der DB steht und schreibe die datensätze dann in die DB. Jetzt habe ich das Problem, das wir hier von mehreren Millionen Datensätzen sprechen. Daher dauert es ewig bis die Schleife abgearbeitet ist.
Gibt es eine Möglichkeit mehrere Datensätze in einem Query zu prüfen und in die Datenbank zu jagen und wenn ja wie setzt man soetwas um?
Ich stehe mal wieder vor einem Performanceproblem mit einem meiner Programme. Ich habe mehrere txt Dateien gefüllt mit Datensätzen. Dabei sind die Einzelnen Datensätze dirch Zeilenumbrüchen, und die Werte mit Tabstops voneinander getrennt. Aufgabenstellung ist es jetzt die Dateien auszulesen und in eine Datenbank zu packen. (MS-SQL 2012).
Grundsätzlich habe ich das von der Funktion her auch schon umgesetzt. Ich lese die Textdateien Zeilenweise ein, trenne dann die Werte über den Split Befehl auf, prüfe ob der Datensatz schon in der DB steht und schreibe die datensätze dann in die DB. Jetzt habe ich das Problem, das wir hier von mehreren Millionen Datensätzen sprechen. Daher dauert es ewig bis die Schleife abgearbeitet ist.
Gibt es eine Möglichkeit mehrere Datensätze in einem Query zu prüfen und in die Datenbank zu jagen und wenn ja wie setzt man soetwas um?