sql >> データベース >  >> RDS >> PostgreSQL

大きなXMLファイル(〜10GB)をPostgreSQLにインポートする方法

    1. XMLファイルをCSVファイルに変換します。また、変換するときは、バッチ処理を簡単にするために100Mb〜1Gbの部分に分割します。

    2. CSVファイルで定義した列を使用してテーブルを作成します。

    3. コピー を使用してファイルをPostgresにアップロードします コマンド。これは、私が知っている大量のデータをアップロードするための最速の方法です。ところで、Javaからも、 CopyManager クラス。

    実行するクエリの種類に応じて、インデックスを作成します。

    1. それは最も時間のかかる部分になります。ただし、インデックスを同時に作成 することはできます。 。インデックスがバックグラウンドで作成されている間、テーブルを操作できるようになります。

    2. インポートプロセスを繰り返し、すでにテーブルとインデックスが作成されている場合は、COPYコマンドを発行する前にインデックスを削除し、後で再作成してください。時間を大幅に節約できます。

    3. それでもクエリの速度やインデックス作成の速度に不満がある場合は、クリックハウス<を使用することをお勧めします。 / a> 代わりは。ただし、実行するクエリの種類によって異なります。




    1. 演算子と>=&<=演算子のSQLの違い

    2. DETERMINISTIC、NO SQL、または宣言内のREADS SQL DATAであり、バイナリロギングが有効になっています

    3. MySQLで大文字をチェックする方法は?

    4. 多くのテーブルの1つへの外部キー?