ich bin gerade dabei eine Suchmaske über 300.000 Verträge aufzubauen.
Die Sucheingabe ist in Datei A, die Daten liegen in Datei B.
Beide Dateien liegen unter dem gleichen Pfad auf einem Netzwerklaufwerk.
Ziel soll sein, beim Verlassen des Feldes in Datei A per ".find" einen Wert aus der Liste (Datei B) zu finden und dann die dazugehörigen Einträge in die Ergebnisfelder (Datei A) zu schreiben.
Ich habe schon gemerkt, dass .find mit der Masse an Daten sehr lange benötigt und habe daher die Datei B in Einzeldateien zu je 50.000 Stück aufgeteilt.
- Datei B_1-50.000
- Datei B_50.001 - 100.000
etc.
Für einen Performancetest hatte ich hier jedoch noch keine Gelegenheit.
Jetzt hänge ich aber gerade an dem Problem "was tun, wenn die nächste 50.000-Tranche angebrochen wird?".
Muss ich da jedes mal meinen Code anpassen oder gibt es eine Möglichkeit, dass automatisch die nächste Datei berücksichtigt wird?
Den betroffenen Codeteil habe ich im Anhang beigefügt.
https://www.herber.de/bbs/user/121920.xlsm
Vielen Dank im Voraus für eure Rückmeldungen.
Gruß
Aaron