データローダ (デザイナ)
データローダについて
データローダは、リアルタイム API サービスを介して XM Discover でプロジェクトにデータをインポートするために使用されます。データローダにアクセスするには、管理ページに移動し、プロジェクトを選択してから、データローダータブに移動します。
注意:クアルトリクステクニカルコンサルタントは、プロジェクトにデータをインポートするようにデータローダを設定します。データローダの設定は、技術コンサルタントに最初に相談せずに調整しないでください。データローダの設定が正しくないと、XM Discoverへのデータのインポートに失敗する可能性があります。
データローダ設定
プロジェクト内でデータローダを設定する際には、以下の設定を使用することができます。
- テーブル名:XM Discoverにインポートするデータを含むステージングテーブルの名前を入力します。
- API ユーザ名: API 呼出を実行できる API ユーザのユーザ名を入力します。
- API パスワード。API ユーザのユーザ名を入力します。
- API URL: データのフェッチに使用される API サービスの URL を入力します。
- フェッチサイズ: インポートする行数を指定します。
- バッチサイズ: 1 つのバッチでインポートする行数を指定します。バッチサイズがフェッチサイズより大きい場合、すべてのデータがインポートされるまで複数の呼出が実行されます。
- エラー数: エラーが原因でインポートが失敗した場合は、呼び出しを再試行する回数を指定できます。
- スレッド数: 1 つの変圧器インスタンスで実行する必要があるスレッドの最大数を入力します。
- 応答ロギング有効: このオプションを有効にすると、ドキュメント処理結果のログを作成できます。
- ログテーブル名: 結果をログに記録すると、新しいテーブルが作成されます。この項目にテーブルの名称を入力します。
ヒント:[回答ロギングを有効にする]が選択されている場合にのみ、このフィールドに対して何かを指定する必要があります。
- 応答レベル: このオプションは保存のみに設定する必要があります。
- 重複検出: 重複の処理方法を選択してください。オプションは次のとおりです。
- NONE: 重複がインポートされます。
- REJECT: 重複は拒否されます
- UPDATE ATTRIBUTES: 重複に対して構造化属性のみが更新されます。
- データマッパー:データマッパーは、XM Discover で使用されるステージングテーブルから抽出されるフィールドを選択するために使用されます。詳細については、下記の「データマッパー」サブセクションを参照してください。
データマッパー
データマッパーは、XM Discover で使用するためにステージングテーブルからデータを抽出するために使用されます。データマッパには、ステージングテーブル内の項目のみが含まれます。
- データローダ設定で、 [データマッパー] をクリックします。
- データのソースを示すフィールドを選択します。
- [次へ] をクリックします。
- 自然キーとして使用する項目を選択し、右向き矢印 (> ) をクリックします。複数のフィールドを選択できます。自然キーは、選択した順序でフィールドを連結したものになります。
ヒント:256文字を超えるフィールドは除外されます。自然キーは 256 文字にトランケートされます。 - [次へ] をクリックします。
- 顧客の語詞を含む項目を選択し、右向き矢印 (> ) をクリックします。
- [次へ] をクリックします。
- 構造化属性を含む項目を選択し、右向き矢印 (> ) をクリックします。最大 500 個の構造化属性を選択することができます。
- [次へ] をクリックします。
- 属性をレビューし、必要に応じて変更します。属性の表示名、タイプ、レポート可用性を変更し、項目が電子メールであるかどうかを示すことができます。
- [次へ] をクリックします。
- 伝票が登録された日付を含む項目を選択します。これは XM Discover のレコード日付として使用されます。
- [次へ] をクリックします。
- ドキュメントの言語を含むフィールドを選択します。
- [保存]をクリックします。
データローダを使用したデータのインポート
データがデータローダを介してステージングテーブルにロードされた後、そのデータを処理して XM Discover で使用することができます。このセクションでは、データが最新の状態に保たれるように自動データロードプロセスを設定する方法について説明します。
- データフロータブに移動します。
- データローダ開始をクリックします。
- データフローのスケジュール済セクションにナビゲートします。
- 以下のジョブを有効化します。
- 継続的プロセスモニタ: このジョブは必須です。このデータフローでは、リアルタイムダウンストリームを定期的に実行し、データ処理を完了します。
- データローダアーカイブ: このジョブはオプションですが、強くお奨めします。このデータフローは、データローダによって処理されるレコードをアーカイブします。データローダの頻度と一致するように、このジョブの頻度を更新する必要があります。
- 統計収集: このジョブはオプションです。このジョブは、週に 1 回実行することをお奨めします。このデータフローでは、以下のプロジェクト統計がリフレッシュされます。
- [データフロー] タブに表示されるドキュメント、言い回し、および文の合計数。
- センチメントタブに表示される単語オカレンスの合計数。
データローダオプション
プロジェクトデータの削除
プロジェクトのデータを削除することができます。これには、動詞および構造化属性値が含まれます。プロジェクトデータを削除する場合、特定のセッション中にアップロードされたすべてのデータを削除するか、プロジェクト内のすべてのデータを削除することができます。
ヒント:データの削除はデータのクリーニングとも呼ばれます。
- データフロータブの完了セクションに移動します。
- アドホックアップロードジョブの横にある [クリーン] をクリックします。
これにより、選択したアップロード中に追加されたすべてのデータが削除されます。