Pega 8.8 to 24.1 Upgrade: Data Migration with pg_dump
We are planning to upgrade from Pega Ver. 8.8 to Pega Ver. 24.1 and would like to discuss how to migrate data on the Pega platform (Ver. 24.1) in relation to this work. Our migration policy is to build a new Pega Ver. 24.1 environment in advance, and to migrate applications and various data from the existing Pega Ver. 8.8 environment upgraded to Ver. 23.1 to this environment. We would like to migrate the application and various data in one day, and are considering the following migration methods. DB environment: PostgreSQL Ver15.1 (1) Rule schema: ruleschema (2) Data schema: dataschema (3) Customer schema: customerschema
<Migration method> ・Master data types: Migrate customer schemas (customerschema) using pg_dump. Applications: Use Pega's standard export/import functions. Case instances/operators/assignment information/DSS and other configuration information: Since the number of case instances is large (over 4 million and 100,000 to 200,000 operators) and the assignment information and DSS configuration values also need to be migrated, we are considering migrating dataschema with pg_ dump. We considered migrating with Pega standard functions (export/import), but due to the large amount of data and number of operators, we decided that we need to migrate with pg_dump to achieve migration in a short period of time.
We are planning to upgrade from Pega Ver. 8.8 to Pega Ver. 24.1 and would like to discuss how to migrate data on the Pega platform (Ver. 24.1) in relation to this work. Our migration policy is to build a new Pega Ver. 24.1 environment in advance, and to migrate applications and various data from the existing Pega Ver. 8.8 environment upgraded to Ver. 23.1 to this environment. We would like to migrate the application and various data in one day, and are considering the following migration methods. DB environment: PostgreSQL Ver15.1 (1) Rule schema: ruleschema (2) Data schema: dataschema (3) Customer schema: customerschema
<Migration method> ・Master data types: Migrate customer schemas (customerschema) using pg_dump. Applications: Use Pega's standard export/import functions. Case instances/operators/assignment information/DSS and other configuration information: Since the number of case instances is large (over 4 million and 100,000 to 200,000 operators) and the assignment information and DSS configuration values also need to be migrated, we are considering migrating dataschema with pg_ dump. We considered migrating with Pega standard functions (export/import), but due to the large amount of data and number of operators, we decided that we need to migrate with pg_dump to achieve migration in a short period of time.
<Questions> Please address the following: 1. What are the considerations when migrating data schemas (data schema) using pg_dump? - Are there any tables that cannot be migrated using pg_dump or that need to be adjusted after migration? Are there any considerations for maintaining Pega platform integrity when migrating data schemas using pg_dump? Are there any recommendations regarding data validation after migration? 2. Best practices for migrating DSS configuration values: When migrating data schemas (data schemas) using pg_dump, are there any best practices for migrating DSS configuration values to avoid conflicts with new environment specific configuration values? Is there a best practice for migrating DSS configuration values to avoid conflicts with new environment-specific configuration values? Is there an efficient way to update environment-specific configuration values after migration? 3. 3. performance considerations for large data migrations Do you have any performance recommendations for migrating more than 4 million cases of instances and 100,000-200,000 operators in a single day?
Thank you in advance for your answers.
Pega Ver8.8 から Pega Ver.24.1 へのバージョンアップを計画しており、この作業に関連して Pega プラットフォーム(Ver.24.1)におけるデータ移行方法についてご相談させていただきます。 移行方針としては、Pega Ver.24.1 環境を事前に新規構築し、この環境に対して、既存の Pega Ver8.8 を Ver.23.1 へアップグレードした環境から、アプリケーションと各種データを移行したいと考えています。 アプリケーションと各種データの移行自体は1日で実施したいと考えており、以下の移行方法を検討しています。 ■DB環境:PostgreSQL Ver15.1 (1) ルールスキーマ:ruleschema (2) データスキーマ:dataschema (3) カスタマースキーマ:customerschema
<移行方法> ・データタイプなどのマスタ系: カスタマースキーマ (customerschema) を pg_dump で移行する。 ・アプリケーション: Pega 標準のエクスポート/インポート機能を利用する。 ・ケースインスタンス/オペレータ/アサイン情報/DSS等の各種設定情報: ケースインスタンスが400万件超、オペレータ数が10万~20万件程度と大規模であり、アサイン情報やDSSの各種設定値の移行も必要なため、 データスキーマ (dataschema) を pg_dump で移行することを検討しています。 Pega 標準機能 (エクスポート/インポート) での移行も検討しましたが、データ量とオペレータ数の多さから、 短時間での移行を実現するためにpg_dumpでの移行が必要であると判断しました。
<質問>つきましては、以下の点についてご教示いただけますでしょうか。 1.pg_dump を利用したデータスキーマ (dataschema) の移行における注意点: ・pg_dump で移行できないテーブルや、移行後に調整が必要となるテーブルはありますでしょうか。 ・データスキーマ(dataschema)をpg_dumpで移行する際に、Pega プラットフォームの整合性を保つために考慮すべき点はありますでしょうか。 ・移行後のデータ検証における推奨事項はありますでしょうか。 2.DSS 設定値の移行におけるベストプラクティス: ・データスキーマ (dataschema) を pg_dump で移行する際に、DSS の設定値を移行する際に、新環境固有の設定値との競合を避けるためのベストプラクティスはありますでしょうか。 ・環境固有の設定値を移行後に効率的に更新する方法はありますでしょうか。 3.大規模データ移行におけるパフォーマンスに関する考慮事項: ・ケースインスタンス 400 万件超、オペレータ数 10 万~20 万件という規模のデータを、1 日で移行するために考慮すべきパフォーマンスに関する推奨事項はありますでしょうか。
以上、ご回答のほど、よろしくお願いいたします。