Seite 1 von 1

Datenpumpe für große Datenmengen

Verfasst: Do 5. Mär 2020, 13:02
von martin.koeditz
Hallo,

kennt jemand eine Software um größere Datenmengen von einer DB in eine andere zu transferieren (MSSQL zu Firebird)? Ich habe EMS Data Pump probiert. Jedoch scheitert das Programm immer wieder am Einlesen der eigenen Konfigurationsdateien. Eventuell besitzt die MSSQL-DB zu viele Tabellen.

Schön wäre es, wenn die Software zeitlich gesteuert werden könnte, um die Daten zum Beispiel nachts zu aktualisieren.

Vielleicht hat ja jemand einen Tipp.

Dank und Gruß
Martin

Re: Datenpumpe für große Datenmengen

Verfasst: Do 5. Mär 2020, 17:36
von bfuerchau
Nur mal schnell gesucht:
http://opendbcopy.sourceforge.net/

Ein Kunde von mir hatte mal eine kostenpflichtiges Produkt, Javabasiert, dass Daten aus einer beliebigen Quelle transformieren kann und in eine beliebige DB übertragen konnte. Ich muss da mal nachfragen, was das war.

Re: Datenpumpe für große Datenmengen

Verfasst: Do 5. Mär 2020, 20:35
von martin.koeditz
Hi,

opendbcopy sieht schonmal vielversprechend aus. Grundsätzlich bin ich auch bereit Geld auszugeben. Muss halt funktionieren. Wäre schön, wenn du etwas wegen dem Java-Produkt in Erfahrung bringen könntest.

Dank und Gruß
Martin

Re: Datenpumpe für große Datenmengen

Verfasst: Fr 6. Mär 2020, 10:55
von sewil56
Guten Morgen.

Habe die dbMigration.net vor laengerer Zeit mal benuetzt , hat funktioniert.

https://fishcodelib.com/index.htm

w.b.reg.

Willi

Re: Datenpumpe für große Datenmengen

Verfasst: Fr 6. Mär 2020, 15:50
von bfuerchau

Re: Datenpumpe für große Datenmengen

Verfasst: Sa 7. Mär 2020, 01:43
von vr2
Martin, wie sehen denn die Anforderungen aus? Geht es nur darum, Daten von MSSQL nach Firebird zu kopieren und Du hast links und rechts die gleiche Tabellenstruktur? Oder brauchst Du eher was in Richtung ETL, also Typabbildung, Filterung von Teilmengen, explizite Spaltenzuordnung bei Bedarf inkl Benennungskonflikte, Validierung, Auflösung von Datenkonfliken, Reihenfolge bei der Übertragung (zb wegen Contraints) usw?

Wenn es nur einfaches Rüberschaufeln ist, könntest Du auch selber was schreiben und bspw über ODBC auf MSSQL zugreifen. Das sind nur wenige Zeilen.

Grüße, Volker

Re: Datenpumpe für große Datenmengen

Verfasst: So 8. Mär 2020, 12:32
von bfuerchau
Nach Rücksprache mit meinem Kunden ist Talend-Studio genau für solche Szenarien geeignet und durch Exe-Erstellung dann auch automatisierbar.
Man kann einfache SQL-Kopieraktionen wie auch Transformationen u.ä. vornehmen. Bevor man sich da was eigenes entwickelt, würde ich das mal prüfen.
Somait lassen sich regelmäßige Synchronisierungen leicht erreichen wie auch Testszenarien, die dann später in Echt eingesetzt werden.