必須属性および任意属性 - Parallel Transporter

Teradata® Parallel Transporter リファレンス

Product
Parallel Transporter
Release Number
17.10
Published
2022年2月
Language
日本語
Last Update
2022-02-11
dita:mapPath
ja-JP/abr1608578396711.ditamap
dita:ditavalPath
ja-JP/obe1474387269547.ditaval
dita:id
B035-2436
Product Category
Teradata Tools and Utilities

DataConnectorオペレータの必須および任意の属性値を宣言するためには、Teradata PTのDEFINE OPERATOR文で属性定義リスト構文を使用します。

複数ファイルの並列処理が可能です。DirectoryPath属性で基本ディレクトリを指定し、読み取りを行なう一連のファイルの選択基準としてワイルドカードをFileName属性で指定することにより、プロデューサ型DataConnectorオペレータのインスタンスを複数使用できるようになります。

'Hadoop'で始まる属性を指定すると、DataConnectorオペレータは、ローカルのファイル システムにあるファイルやディレクトリではなく、Hadoopのファイル、ディレクトリ、およびテーブルを処理します。詳細は、Hadoopのファイルとテーブルの処理を参照してください。



2_sntx_2433K033_02_revisedArtwork_existingTemplate
sntx-2433R033-03_needs update_TEST3_v2artwork_on_originaltemplate_nochangeDocumentBounds
4_sntx_2433R033-04_revisedArtwork_existingTemplate
5_opt2_sntx-2433R033-05_revisedArtwork_existingTemplate_BOTTOMextended

構文規則:

DataConnector属性の説明
構文要素 説明
AcceptExcessColumns = ‘option’

追加列が含まれている行を受け入れ可能かどうかを指定する任意選択の属性。これは、プロデューサ オペレータ用の区切りデータにのみ適用されます。

有効な値は
  • 'Yes'または'Y' = 行に上限を超える列が含まれる場合、スキーマで定義された列数になるよう超過した分の列が切り捨てられ、切り捨てられた列はエラーが表示されずに後ろに送られます。RecordErrorFileName属性で定義されている場合、編集されたレコードがデータベースに送信され、元のレコードはレコード エラー ファイルに保存されます。
  • 'No'または'N' = 行に上限を超える列が含まれる場合、データベースに送信されませんが、RecordErrorFileName属性で定義されている場合、元のレコードはレコード エラー ファイルに保存されます。RecordErrorFileNameが定義されていない場合は、致命的なエラーが発生します。'No'はデフォルト値です。
  • 'YesWithoutLog'または'YesW' = 編集された行はデータベースに送信されますが、元のレコードはレコード エラー ファイルに保存されません。
です。

この属性は、Consumerオペレータでは無視されます。

AcceptMissingColumns = ‘option’ 列カウントがスキーマでの定義より少ない行の処理方法を決める任意の属性。これはProducerオペレータの区切りデータにのみ適用されます。
有効な値は
  • 'Yes'または'Y' = 行が正しい列数になるまで拡張されます。それぞれ付加される列は長さがゼロの列になり、NullColumns属性の値によって処理されます。RecordErrorFileName属性で定義されている場合、編集されたレコードがデータベースに送信され、元のレコードはレコード エラー ファイルに保存されます。
  • 'No'または'N' = 列数が少なすぎる行はデータベースに送信されませんが、RecordErrorFileName属性で定義されている場合、元のレコードはレコード エラー ファイルに保存されます。RecordErrorFileNameが定義されていない場合は、致命的なエラーが発生します。'No'はデフォルト値です。
  • 'YesWithoutLog'または'YesW' = 編集された行はデータベースに送信されますが、元のレコードはレコード エラー ファイルに保存されません。
です。

この属性は、Consumerオペレータでは無視されます。

AccessModuleInitStr = 'initString' 特定のアクセス モジュールの初期化文字列を指定する任意選択の属性。この属性は、プロデューサ オペレータとConsumerオペレータの両方で使用されます。

AccessModuleInitStr属性が定義されていて、Filename属性が定義されていない場合、OpenおよびReadのリクエストは、各インスタンスのアクセス モジュールに送信されます。ただし、アクセス モジュールに渡されるファイル名は空の文字列であるため、どのファイルを開くかを(場合によっては初期化文字列から)決定するのはアクセス モジュール自体に任されています。アクセス モジュール内でOpenまたはReadのリクエストが失敗した場合、ジョブは終了します。

initString値については、<Teradata® Tools and Utilities Access Moduleリファレンス, B035-2425>の各モジュールに関する「初期化文字列」の節を参照してください。

AccessModuleName = 'name' アクセス モジュール ファイルの名前を指定する任意選択の属性。nameの値は次のように決まります。

Teradata Access Module for S3

  • Linuxプラットフォームの場合、libs3axsmod.so

Teradata Access Module for Named Pipes

  • Apple macOSプラットフォームの場合、libnp_axsmod.dylib
  • 他のすべてのUNIXプラットフォームの場合、np_axsmod.so
  • Windowsプラットフォームの場合、np_axsmod.dll

Teradata Access Module for WebSphere MQ(クライアント バージョン)

  • Apple macOSプラットフォームの場合、libmqsc.dylib
  • 他のすべてのUNIXプラットフォームの場合、libmqsc.so
  • Windowsプラットフォームの場合、libmqsc.dll

Teradata Access Module for WebSphere MQ(サーバー バージョン)

  • Apple macOSプラットフォームの場合、libmqs.dylib
  • 他のすべてのUNIXプラットフォームの場合、libmqs.so
  • Windowsプラットフォームの場合、libmqs.dll

OLEDB用Teradata Access Module

  • Windowsプラットフォームの場合、oledb_axsmod.dll
Teradata Access Module for Kafka
  • Linuxプラットフォームの場合、libkafkaaxsmod.so
Teradata Access Module for Azure Blob
  • Linuxプラットフォームの場合、libazureaxsmod.so
Teradata Access Module for Google Cloud Storage (GCS)
  • Linuxプラットフォームの場合、libgcsaxsmod.so

カスタム アクセス モジュールを使用する場合は、共有ライブラリ ファイル名を使用します。

オペレータによって、使用するプラットフォームに適切な接尾辞が付加されるため、アクセス モジュール名に接尾辞は必要ありません。

アクセス モジュール名にパスが含まれていない場合、Teradata PTは以下の順番でそのファイル名を検索します。
  • TPTライブラリが格納されているインストール ディレクトリ内のサブディレクトリを検索します。
  • 現在の作業ディレクトリを検索します。
  • オペレーティング システムが、デフォルトのシステム ディレクトリや、リンカー環境変数(

    LD_LIBRARY_PATH

    など)で定義されているパスを検索できるようにします。

この属性は、ProducerオペレータとConsumerオペレータの両方で使用されます。

DataConnectorオペレータは、システム パラメータが適切に設定されている場合、Windows、AIX、およびSPARCシステム版Solarisで2ギガバイトを超えるサイズのファイルをサポートするようになったため、ラージ ファイル アクセス モジュールは使用不可になりました。
AppendDelimiter = ‘option’ 書き込まれたすべてのレコードの最後に区切り記号を追加する任意の属性。区切られた出力ファイルをConsumerオペレータで作成するときは、AppendDelimiterを使用します。

レコードの最後の列がNULLの場合、区切り文字はその列がNULLであることを示します。

有効な値は次のとおりです。
  • 'Yes'または'Y' = 書き込まれたすべてのレコードの最後に区切り記号を追加します。
  • 'No'または'N' = 書き込まれたすべてのレコードの最後に区切り記号を追加しません(デフォルト)。

この属性は、Producerオペレータには無効です。

ArchiveDirectoryPath = ‘pathName’

プロデューサ オペレータの現在のディレクトリ(DirectoryPath属性で指定されている)から、処理されたすべてのファイルが移される移動先ディレクトリの完全パス名を指定します。

VigilMaxFiles属性の値を指定する場合は、この属性が必須です。

この属性は、Consumerオペレータでは無視されます。

ArchiveFatal = ‘option’ Producerオペレータのアーカイブ(ファイルの移動)に失敗した場合の処置を定義します。
有効な値は次のとおりです。
  • 'Yes'または'Y' =ジョブが終了します(デフォルト)。
  • 'No'または'N' = 警告が表示されて処理が続行されます。

この属性は、Consumerオペレータでは無視されます。

CloseQuoteMark = 'character(s)'

区切り記号付きデータ内の終了引用符の文字シーケンスを定義します。

セッション文字セットにあるシングルバイトまたはマルチバイトの任意の値を指定できます(例:「"」または「| |」)。

デフォルト値は、属性OpenQuoteMarkに指定されたシーケンスです。

この属性は、ProducerオペレータとConsumerオペレータの両方で使用されます。

DirectoryPath = 'pathName'

この任意の属性は、(Producerオペレータによる)読み取り用のソース ファイルまたは(Consumerオペレータによる)書き込み用のターゲット ファイルの場所を定義します。

FileName属性によって指定されたファイルの場所(またはPDSメンバー)に対して既存の基本ディレクトリ パス(またはz/OS PDSデータセット名)を指定する場合は、この属性を使用します。 z/OSデータセット(DD:DATA)がFileName属性で指定されている場合は、この属性を使用できません。

JCL DD文を持つz/OS PDSデータセットを指定するには、次の例に示すように、DirectoryPath属性値に接頭辞「DD:」を付けます。

DirectoryPath='DD:<ddname>'

z/OS PDSデータ セットを直接指定するには、以下の構文を使用します。

DirectoryPath=’//’’dataset-name’’’

この属性のデフォルトは、ジョブが実行されているディレクトリ(DEFINE JOB文で指定されたジョブ作業ディレクトリ)に設定されています。

DataConnectorがプロデューサ インスタンスである場合、FileName属性の値にディレクトリ名が含まれていなければ、このDirectoryPath指定がファイル名の先頭に付加されます。FileName属性の値にディレクトリが含まれている場合、このDirectoryPath属性は空であることになっています。

EnableScan = ‘mode’

Producerオペレータでアクセス モジュールを使用している場合、ディレクトリ スキャン ロジックを無視する任意の属性。

有効な値は次のとおりです。
  • ‘Yes’または‘Y’ = オペレータは、元の動作(ディレクトリを自動的にスキャンする)を維持します(デフォルト)。
  • 'No'または'N' = オペレータによりディレクトリ スキャン機能が無視され、FileName属性で指定されたファイルだけが直接アクセス モジュールに渡されます。

FileName属性でワイルドカード文字が指定されているにもかかわらず、この属性を'No'に設定すると、DataConnectorログに警告メッセージが生成されます。

この属性は、Consumerオペレータには無効です。

ErrorLimit =errorLimit

errorLimit = (0 - 2147483647)

0 = デフォルト(無制限)

DataConnector Producerオペレータ ジョブを終了するまでにエラー行ファイルに格納できるレコードの概数を指定する任意の属性。ErrorLimitを指定しないと、ErrorLimitの値が0の場合と同じです。ErrorLimitの指定は、DataConnector Producerオペレータの各インスタンスに適用されます。

「RecordErrorFileName」属性が定義されている場合(従来「RowErrFileName」と呼ばれていたもの)、エラー レコードは指定したファイルに保存され、ジョブは致命的なエラーで終了することなく追加のレコードを処理し続けます。

この属性は、Consumerオペレータでは無視されます。

ErrorLimit属性の影響については、<Teradata® Parallel Transporterユーザー ガイド, B035-2445>を参照してください。

サポートされていてもマニュアルに記載されなくなった廃止された構文の一覧については、非推奨の構文を参照してください。
EscapeQuoteDelimiter = 'character(s)'

区切りデータ内でエスケープ引用符文字シーケンスを定義できるオプションの属性。既定値は、CloseQuoteMark 属性に指定されたシーケンスです。引用符で囲まれた区切りデータの処理の規則を参照してください。

区切り形式でデータを処理する際に、OpenQuoteMarkまたはCloseQuoteMarkの前にEscapeQuoteDelimiterがある場合には、引用符(開始または終了のどちらか)のそのインスタンスは引用符で囲まれた文字列の開始または終了を表わすマークではなくデータ内に組み込まれます。

この属性は、ProducerオペレータとConsumerオペレータの両方で使用されます。

EscapeRecordDelimiter = 'character(s)'

引用符で囲まれていない区切りデータ内で、レコードの区切り文字のエスケープ シーケンスを定義できる任意の属性。

区切り形式でデータを処理する際に、レコード終了(EOR)マーカーの前にEscapeRecordDelimiterによって定義されているエスケープ シーケンスがある場合には、エスケープ シーケンスが削除され、EORのインスタンスは、レコードの終了を表わすマークではなくデータ内に組み込まれます。EscapeRecordDelimiterで定義されたエスケープ シーケンスの直後にEORがない場合、エスケープ シーケンスは通常のデータとして扱われます。

その他の詳細:
  • EORは、LF改行(0x0A)、CRLF改行(0x0D0A)、またはEBCDIC改行(0x15)のいずれかです。
  • EscapeRecordDelimiterは、'Delimited'以外のすべての形式の種類で無視されます。
  • EscapeRecordDelimiterは、1文字以上の長さにすることができ、セッション文字セットに応じてシングルバイト文字またはマルチバイト文字を含めることができます。
  • 引用符で囲まれたデータの場合、EscapeRecordDelimiterは、埋め込みEORと同様に通常のデータとして扱われます。
  • EscapeRecordDelimiterは、Producerオペレータでのみ使用されます。Consumerオペレータでは無視されます。
  • デフォルト値はありません。
EscapeTextDelimiter = 'character(s)'

区切りデータ内の区切り文字のエスケープ文字シーケンスを定義するための任意の属性。

区切り形式でデータを処理する際に、区切り文字の前にEscapeTextDelimiterによって定義されているエスケープ シーケンスがある場合には、区切り文字のそのインスタンスは列の終わりを表わすマークではなくデータ内に組み込まれます。EscapeTextDelimiterで定義されたエスケープ シーケンスの直後に区切り記号文字がない場合、データは通常とみなされ、それ以上の処理は行なわれません。

例えば、デフォルトの区切り文字がパイプ( | )で、EscapeTextDelimiterが円記号の場合に、列にabc\|def|というデータが入力されたとすると、そのデータはabc|defとしてロードされます。

その他の詳細:
  • EscapeTextDelimiterは、'Delimited'以外のすべての形式の種類で無視されます。
  • EscapeTextDelimiterは、1文字以上の長さにすることができ、セッション文字セットに応じてシングルバイト文字またはマルチバイト文字を含めることができます。
  • 引用符で囲まれたデータの場合、EscapeTextDelimiterは通常のデータとして扱われます。
  • EscapeTextDelimiterは、ProducerオペレータとConsumerオペレータの両方で使用されます。
  • デフォルト値はありません。
FileList = 'option'

FileName属性とともに使用する任意の属性。

有効な値は次のとおりです。
  • 'Yes'または'Y' = FileNameで指定したファイルに、処理対象のファイル リストが含まれます。Producerオペレータの場合、任意の数のファイルをリストすることができ、それぞれデータが読み取られます。Consumerオペレータの場合は、各インスタンスに書き込み先のファイルが1つ含まれるように、リストされるファイルの数はConsumerインスタンスの数と同じである必要があります。
  • 'No'または'N' = FileNameで指定したファイルには、処理対象のファイル リストが含まれません。
DataConnectorオペレータは、ネットワークに接続されたプラットフォーム上のASCIIでエンコードされたFileListファイルのみをサポートします。
FileName = 'fileName'

処理対象のファイル名を指定する必須の属性。Producerオペレータの場合、このファイルはソース データを読み取る場所を定義します。Consumerオペレータの場合は、ターゲット データを書き込む場所を定義します。

場合によっては、AccessModuleName属性を使用して指定したアクセス モジュールでファイル名が使用または認識されないことがあります。そのため、FileName属性の値の指定が必須ではないことがあります。 例えば、Teradata Access Module for IBM Websphere MQでは、ファイル名の指定が必須ではありません。

FileList属性とともに使用すると、fileNameは、処理対象のファイル名(それぞれフルパスで指定)のリストが含まれることが想定されます。 この場合、ワイルドカード文字は、FileName属性自体とそこに含まれるファイル名にも使用できません。 オペレータの複数インスタンスを使用すると、ファイルのリストを同時に処理できます。

FileList = ’No’の場合、fileNameのワイルドカード文字は、Producerオペレータによってディレクトリ スキャンが行なわれます。ただし、Windowsプラットフォームの場合、'filename'オペレータ属性でワイルドカード文字(*)を使用すると、必要以上のファイルが誤って含まれる場合があります。例えば、*.datを指定すると、フォルダのディレクトリ スキャンは*.dat*と指定したかのようにファイルを検索します。例えば、拡張子.data.date、および.dat071503を持つファイルも検索されます。このため、まずフォルダから無関係なファイルを削除することが必要な場合があります。

GZIP圧縮ファイルの読み取りと書き込みは、すべてのz/OSプラットフォームでサポートされています。このサポートはファイルの拡張子に基づいて自動的に有効になります。gzipファイルの標準ファイル名拡張子は"*.gz"です。

Zip圧縮ファイルの読み取りと書き込みは、WindowsおよびUnixでサポートされますが、

IBM z/OSではサポートされません。このサポートはファイルの拡張子に基づいて自動的に有効になります。zipファイルの標準ファイル名拡張子は"*.zip"です。

ZIP形式で読み取りと書き込みがサポートされるのは、単一ファイルのみです。

Hadoop/HDFSを使用する場合、GZIPおよびZIPファイルの読み取りと書き込みはサポートされません。

追加のz/OSデータセット構文については、有効なFileName構文表を参照してください。

FileSizeMax = 'fileSizeMax'

Consumerインスタンスに対してのみ有効な任意の属性。出力ファイルの最大ファイル サイズ(バイト単位)で定義します。ファイルがこのサイズに達すると、DataConnectorはファイルを閉じ、元のユーザー定義ファイル名および追加されたインスタンス番号とファイル番号を使用して、新しい出力ファイルへのレコードの書き込みを続行します。

この属性の有効な値は次のようになります。
  • 現在のファイル システムによって適用されるファイル サイズ制限内の正の整数。
  • 先頭の数字の後に'350M'、'M'、または'G'が続く短縮形の指定。これらは、それぞれ1024バイト、1048576バイト、および1073741824バイトを表わします。例えば、'K'は367001600バイトを表わします。全体的な数値表現は、現在のファイル システムによって適用されるファイル サイズ制限内である必要があります。
出力ファイルの命名は、FileName設定、インスタンス番号、およびそのインスタンスに対してすでに開かれているファイルの数に基づきます。特定の命名構文は、FileName設定から取得した基本ファイル名の後にハイフン('-')が続き、その後にオペレータ インスタンス番号、別のハイフン、その後に数値(ファイル番号)が続き、その後にFileName設定から取得したファイル拡張子(存在する場合)となります。例えば、DataConnectorの3つのインスタンスが実行中で、FileName=' abcd.txt'の場合、次の9つのファイルが作成されます。
  • abcd-1-1.txt – 最初のインスタンスの最初のファイル
  • abcd-2-1.txt – 2番目のインスタンスの最初のファイル
  • abcd-3-1.txt – 3番目のインスタンスの最初のファイル
  • abcd-1-2.txt – 最初のインスタンスの2番目のファイル
  • abcd-2-2.txt – 2番目のインスタンスの2番目のファイル
  • abcd-3-2.txt – 3番目のインスタンスの2番目のファイル
  • abcd-1-3.txt – 最初のインスタンスの3番目のファイル
  • abcd-2-3.txt – 2番目のインスタンスの3番目のファイル
  • abcd-3-3.txt – 3番目のインスタンスの3番目のファイル

この命名規則は、オペレータ インスタンスを1つしか使用しない場合や、サイズ制限に達することがない場合であっても、FileSizeMax属性が定義されるときには必ず使用されます。

個々のレコードは複数のファイルに及ばないので、最大限度に達したファイルの最終的なサイズは、FileSizeMaxの値よりもわずかに小さくなります。

DataConnector Consumerオペレータは、各ファイルにレコードを少なくとも1つ書き込める必要があります。したがって、ファイルにレコードが1つ含まれ、そのレコードがFileSizeMaxの制限を超えた場合にのみ、ファイルがFileSizeMaxの値を超える可能性があります。

複数のインスタンスを使用する場合、一部のインスタンスがその他のインスタンスよりも多くのレコードを処理する場合があります。これは、単純にデータ ストリームからより多くのデータを処理しているためです。各インスタンスのファイル間でレコードをより均等に配分するには、tbuildの-Cコマンドライン オプションを使用します。

FileSizeMax属性は、次の場合にはサポートされません。
  • DataConnector Producerオペレータ
  • z/OSプラットフォーム
  • ZIPおよびGZIPファイル
  • Hadoopファイル
  • FastExport OUTMOD、FastLoad INMOD、およびMultiLoad INMODの各オペレータ

デフォルト値(0)は、ファイル サイズの制限が適用されないことを示します。

Format = 'format'

データの論理レコード形式を指定する必須の属性。この属性は、ProducerオペレータとConsumerオペレータの両方で使用されます。システム デフォルトはありません。

Formatで使用できる値は次のとおりです。
  • 'Binary' = 2バイトの整数nに、nバイトのデータが続きます。 このデータ形式では、行が64KB (64260データ バイト)以下である必要があります。この形式では:

    データには接頭辞としてレコード長マーカーが付く。

    レコード長マーカーにはマーカー自体の長さは含まれない。

    レコード長は伝送データの一部ではない。

  • 'Binary4' = 4バイト整数n、その後にnバイトのデータが続きます。このデータ形式では、最大1MB(1000000データ バイト)のサイズの行がサポートされます。この形式では次のようになっています。
    • データには接頭辞としてレコード長マーカーが付く。
    • レコード長マーカーにはマーカー自体の長さは含まれない。
    • レコード長は伝送データの一部ではない。
  • 'Delimited' = 各フィールドが区切り記号で分離されたテキスト形式。 Delimited形式を指定すると、任意のTextDelimiter属性を使用して区切り記号を指定できます。 デフォルトはパイプ文字( | )です。
    DataConnector Producerの形式属性が'delimited'に設定されている場合、関連するTeradata PTスキーマ オブジェクトはVARCHARまたはVARDATE列のみで構成されている必要があります。 VARCHAR以外、またはVARDATE以外の列を指定すると、エラーになります。
  • 'Formated' = 2 バイトのレコード長マーカーの前に付き、その後にレコードの終わりマーカーが続きます。このデータ形式では、行が 64 KB (64260 データ バイト) 以下である必要があります。この形式では:

    レコード長マーカーにはマーカー自体の長さは含まれない。

    レコード長もレコード終了マーカーも伝送データの一部ではない。

  • 'Formatted4' = 先頭には4バイト レコード長マーカーが、末尾にはレコード終了マーカーが付加されます。 このデータ形式は、最大1MB (1000000データ バイト)のサイズの行をサポートします。 この形式では:

    レコード長マーカーにはマーカー自体の長さは含まれない。

    レコード長もレコード終了マーカーも伝送データの一部ではない。

  • 'Text' = レコード終了(EOR)マーカーによって分離される文字データ。 EORマーカーは、シングルバイトのラインフィード(X'0A')またはダブルバイトの復帰/ラインフィードのペア(X'0D0A')のいずれかで、最初のレコードで見つかった最初のEORマーカーで決まります。 この形式の場合、列のデータ型はCHARまたはANSIDATEのみに制限されます。
  • 'Unformatted' = フォーマットされません。非初期化データは、レコードやフィールドの区切り記号がなく、指定のTeradata PTスキーマによって全体が記述されます。
HadoopBlockSize= (x * 1K bytes) ブロック/バッファのサイズを指定する任意の属性で、Hadoop/HDFSファイルに書き込むときに1K単位で増加します。 HadoopBlockSize値は、1からx 1Kバイトのどこか(xは任意)で定義することができます。 Hadoop/HDFSクラスタの典型的なデフォルトのブロック サイズは64MBで、これはTPTも使用するものです(65536 * 1024 = 64MB)。

この属性を使用してデフォルトを変更する前に、システム管理者に確認してください。 この値はメモリの消費に影響する(実行時に割り当てられる内部バッファのサイズが2倍になる)ため、むやみに変更すべきではありません。

有効な値は次のとおりです。
  • 1 - 2147483647
  • 0 = デフォルト値
デフォルト値 = 65536。
HadoopFileFormat= 'hadoopFileFormat' TDCHジョブが処理すべきファイルの形式を指定する任意の属性。DataConnectorのHadoopインターフェース、およびサポートされている値やデフォルト値の<Teradata Connector for Hadoop tutorial>の詳細については、Hadoopのファイルとテーブルの処理を参照してください。
HadoopHost= 'hadoopHostName' Hadoopクラスタのネームノードのホスト名またはIPアドレスを指定する任意選択の属性。

TDCHジョブを起動するとき、この値は、TPTジョブを実行しているHadoopクラスタにあるノードのホスト名またはIPアドレスである必要があります。 ホスト名およびIPアドレスは、Hadoopクラスタにあるすべてのデータノードから到達可能である必要があります。 DataConnectorのHadoopインターフェースの詳細については、 Hadoopのファイルとテーブルの処理を参照してください。.

HDFS APIジョブを起動するとき、この値は、HDFS操作を実行するクラスタを示し、以下のように設定できます。
  • “default" = Hadoop HDFS構成ファイルで宣言されたデフォルトの名前ノード。
  • <host-name>:<port> = HDFS操作を実行するクラスタの、名前ノードのホスト名/IPアドレスおよびポート。“:<port>"値は任意です。
HadoopJobType= 'hadoopJobType' 起動するTDCHジョブの種類を指定する任意の属性。DataConnectorのHadoopインターフェース、およびサポートされている値やデフォルト値の<Teradata Connector for Hadoop tutorial>の詳細については、Hadoopのファイルとテーブルの処理を参照してください。
HadoopNumMappers= 'hadoopNumMappers' TDCHが起動するmapperの数を指定する任意の属性。DataConnectorのHadoopインターフェース、およびサポートされている値やデフォルト値の<Teradata Connector for Hadoop tutorial>の詳細については、Hadoopのファイルとテーブルの処理を参照してください。
HadoopProperties = 'hadoopProperties' Hadoop コマンドを実行依頼するときに TPT が使用する 1 つ以上の Hadoop プロパティとその値を指定するオプションの属性。 DataConnectorのHadoopインターフェースおよびTeradata Connector for Hadoop tutorialでサポートされている値とデフォルト値の詳細については、Hadoopのファイルとテーブルの処理を参照してください。
HadoopSeparator= 'hadoopSeparator' TDCHジョブによって処理されるファイル内のフィールドを区切る文字を指定する任意選択の属性。この属性は、'HadoopFileFormat'属性がデフォルト値である'textfile'に設定されている場合にのみ有効です。DataConnectorのHadoopインターフェース、およびサポートされている値とデフォルト値の<Teradata Connector for Hadoop tutorial>の詳細については、Hadoopのファイルとテーブルの処理を参照してください。
HadoopSourceDatabase='hadoopSourceDatabase' データのエクスポート元である、HiveまたはHcatalog上のソース データベースの名前を指定する任意の属性。DataConnectorのHadoopインターフェース、およびサポートされている値やデフォルト値の<Teradata Connector for Hadoop tutorial>の詳細については、Hadoopのファイルとテーブルの処理を参照してください。
HadoopSourceFieldNames = 'hadoopSourceFieldNames' ソースHDFSファイルから、またはソースHiveおよびHCatalogテーブルからエクスポートするフィールドの名前を、カンマ区切り形式で指定する任意の属性。DataConnectorのHadoopインターフェース、およびサポートされている値やデフォルト値の<Teradata Connector for Hadoop tutorial>の詳細については、Hadoopのファイルとテーブルの処理を参照してください。
HadoopSourcePartitionSchema= 'hadoopSourcePartitionSchema' Hiveにあるソース テーブルの完全パーティション スキーマを、カンマ区切り形式で指定する任意の属性。この属性は、'HadoopJobType'が'hive'に設定されている場合にのみ有効です。DataConnectorのHadoopインターフェース、およびサポートされている値やデフォルト値の<Teradata Connector for Hadoop tutorial>の詳細については、Hadoopのファイルとテーブルの処理を参照してください。
HadoopSourcePaths= 'hadoopSourcePaths' HDFS上の、エクスポートされるソース ファイルのディレクトリを指定する任意の属性。この属性は、'HadoopJobType'が'hdfs'に設定されている場合に必須で、'HadoopJobType'が'hive'に設定されている場合は任意、また'HadoopJobType'が'hcat'に設定されている場合は無効です。DataConnectorのHadoopインターフェース、およびサポートされている値やデフォルト値の<Teradata Connector for Hadoop tutorial>の詳細については、Hadoopのファイルとテーブルの処理を参照してください。
HadoopSourceTable = 'hadoopSourceTable' データのエクスポート元である、HiveまたはHcatalog上のソース テーブルの名前を指定する任意の属性。 この属性は、'HadoopJobType'が'hcat'に設定されている場合に必須で、'HadoopJobType'が'hive'に設定されている場合は任意、また'HadoopJobType'が'hdfs'に設定されている場合は無効です。 DataConnectorのHadoopインターフェース、およびサポートされている値やデフォルト値のHadoopのTeradataコネクタチュートリアルの詳細については、Hadoopのファイルとテーブルの処理を参照してください。
HadoopSourceTableSchema= 'hadoopSourceTableSchema' HiveまたはHcatalogにあるソース テーブルの完全列スキーマをカンマ区切り形式で指定する任意選択の属性。DataConnectorのHadoopインターフェース、およびサポートされている値とデフォルト値の<Teradata Connector for Hadoop tutorial>の詳細については、Hadoopのファイルとテーブルの処理を参照してください。
HadoopTargetDatabase= 'hadoopTargetDatabase' データのインポート先である、HiveまたはHcatalog上のターゲット データベースの名前を指定する任意の属性。これは、「hive」や「hcat」ジョブの場合に任意で、「hdfs」ジョブの場合は無効です。DataConnectorのHadoopインターフェース、およびサポートされている値やデフォルト値の<Teradata Connector for Hadoop tutorial>の詳細については、Hadoopのファイルとテーブルの処理を参照してください。
HadoopTargetFieldNames = 'hadoopTargetFieldNames' HDFS上のターゲット ファイル、またはターゲットHiveおよびHCatalogテーブルに書き込むフィールドの名前を、カンマ区切り形式で指定する任意の属性。DataConnectorのHadoopインターフェース、およびサポートされている値やデフォルト値の<Teradata Connector for Hadoop tutorial>の詳細については、Hadoopのファイルとテーブルの処理を参照してください。
HadoopTargetPartitionSchema= 'hadoopTargetPartitionSchema' HDFS上のターゲット ファイル、またはターゲットHiveおよびHCatalogテーブルに書き込むフィールドの名前を、カンマ区切り形式で指定する任意の属性。DataConnectorのHadoopインターフェース、およびサポートされている値やデフォルト値の<Teradata Connector for Hadoop tutorial>の詳細については、Hadoopのファイルとテーブルの処理を参照してください。
HadoopTargetPaths= 'hadoopTargetPaths' HDFS上の、インポートされるソース ファイルのディレクトリを指定する任意の属性。この属性は、'HadoopJobType'が'hdfs'に設定されている場合に必須で、'HadoopJobType'が'hive'に設定されている場合は任意、また'HadoopJobType'が'hcat'に設定されている場合は無効です。DataConnectorのHadoopインターフェース、およびサポートされている値やデフォルト値の<Teradata Connector for Hadoop tutorial>の詳細については、Hadoopのファイルとテーブルの処理を参照してください。
HadoopTargetTable= 'hadoopTargetTable' データがインポートされる、HiveまたはHcatalog上のターゲット テーブルの名前を指定する任意の属性。この属性は、'HadoopJobType'が'hcat'に設定されている場合に必須で、'HadoopJobType'が'hive'に設定されている場合は任意、また'HadoopJobType'が'hdfs'に設定されている場合は無効です。DataConnectorのHadoopインターフェース、およびサポートされている値やデフォルト値の<Teradata Connector for Hadoop tutorial>の詳細については、Hadoopのファイルとテーブルの処理を参照してください。
HadoopTargetTableSchema= 'hadoopTargetTableSchema' HiveまたはHcatalogにあるターゲット テーブルの完全な列スキーマをカンマ区切り形式で指定する任意選択の属性。DataConnectorのHadoopインターフェース、およびサポートされている値とデフォルト値の<Teradata Connector for Hadoop tutorial>の詳細については、Hadoopのファイルとテーブルの処理を参照してください。
HadoopUser= 'hadoopUser' HDFSAPIインターフェース経由でファイルの読み取りおよび書き込みを行なう場合に利用するHadoopユーザーの名前を指定する任意の属性。 この属性が指定されていない場合は、その時点でTPT HDFSジョブを実行しているログイン ユーザー名が使用されます。 DataConnectorのHadoopインターフェースの詳細については、Hadoopのファイルとテーブルの処理を参照してください。
IndicatorMode = 'mode'

各レコードの先頭に標識バイトを組み込むかどうかを指定する任意の属性。この属性は、ProducerオペレータとConsumerオペレータの両方で使用されます。

有効な値は次のとおりです。
  • 'Yes'または'Y' = 標識モード データ。「text」や「delimited」レコード形式では、この値が無効です。
  • 'No'または'N' = 非標識モード データ(デフォルト)。
LobDirectoryPath = 'pathName' この任意選択の属性では、プロデューサ オペレータが一時LOBファイルを格納する既存の場所を指定します。このディレクトリは、インラインLOBすべてが単一のリクエスト メッセージに収まらないために、DataConnectorが遅延モードでインラインLOBを転送する必要がある場合にのみ使用されます。一時LOBファイルの作成と削除はTeradata PTが自動的に処理するので、ユーザーは場所を指定するだけで済みます。

pathNameが指定されていない場合は、現在の作業ディレクトリが使用されます。

この属性は、コンシューマ オペレータに対しては無効であり、z/OSプラットフォームでは無効です。

MultipleReaders = 'option'

任意選択の属性で、'Yes'が設定されると、DataConnector Producerオペレータに対して、複数のインスタンスが単一のファイルから同時に読み取りできるように指示します。

有効な値は次のとおりです。
  • 'Yes'または'Y' = 複数のProducerインスタンスが1つのファイルを読み取れるようにします。FileListを‘Yes’に設定することはできません。
  • 'No'または'N' = Producerオペレータの最初のインスタンスのみがソースデータを読み取ることが許可されます。

この属性は、Consumerオペレータには無効です。

ジョブのスキーマに1つまたは複数のインラインLOB列があり、スキーマの合計サイズが1,024,000バイトを超えている場合、MultipleReadersは無効になります。警告メッセージが表示され、ジョブは続行されます。
NamedPipeTimeOut = seconds

Producerオペレータによる名前付きパイプ(FIFO)のチェックを可能にする任意の属性。secondsが正の数に設定されている場合、データが利用可能になるまで、または指定した時間が経過してジョブが終了するまで、DataConnector Producerオペレータはパイプのデータを毎秒チェックします。属性が指定されていない場合、パイプのチェックは行なわれません。これによりパフォーマンスが向上しますが、読み込み時にパイプ内でデータが利用できない場合は、ハング ジョブになる可能性もあります。

この属性はパイプを直接読み取るためにDataConnector Producerオペレータを使用するジョブ専用です。Named Pipe Access Module(NPAM)がパイプI/Oを実行するときには使用されません。

この属性は、Consumerオペレータには無効です。

NotifyExit = 'inmodName'
_dynamnという名前のエントリ ポイントを持つユーザー定義の通知出口ルーチンの名前を指定する任意の属性。値を指定しない場合、次のデフォルト名が使用されます。
  • Windowsプラットフォームの場合、libnotfyext.dll
  • Apple macOSプラットフォームの場合、libnotfyext.dylib
  • 他のすべてのUNIXプラットフォームの場合、libnotfyext.so
  • z/OSプラットフォームの場合、NOTFYEXT

NotifyMethodは‘Exit’に設定する必要があります。

この属性は、ProducerオペレータとConsumerオペレータの両方で有効です。

独自の通知出口ルーチンを指定する方法については、非推奨の構文を参照してください。

NotifyLevel = ' notifyLevel '

特定のイベントをレポートするレベルを指定する任意の属性。

発生する可能性のあるイベントの詳細DataConnectorオペレータのイベントと各イベントの通知レベルを参照してください。有効な値は
  • 'Off' = イベントの通知は実行されません(デフォルト)。
  • 'Low' = 通知レベル「低」
  • 'Med' = 通知レベル「中」
  • 'High’ = 通知レベル「高」
です。

この属性は、ProducerオペレータとConsumerオペレータの両方で有効です。

NotifyMethod = 'notifyMethod
イベントをレポートするためのメソッドを指定する任意の属性。メソッド:
  • 'None' = イベントをログに記録しません(デフォルト)。
  • 'Msg' = イベントをログに書き込みます。
  • 'Exit'= イベントをユーザー定義の通知出口ルーチンに送ります。

この属性は、ProducerオペレータとConsumerオペレータの両方で有効です。

NotifyString = 'notifyString'
システム ログに送られるすべてのメッセージの先頭に付加するユーザー定義文字列を指定する任意の属性。 この文字列は、ユーザー定義の通知出口ルーチンにも送られます。 文字列の最大長は次のとおりです。
  • NotifyMethodが'Exit'の場合、80バイト
  • NotifyMethodが'Msg'の場合、16バイト

この属性は、ProducerオペレータとConsumerオペレータの両方で有効です。

NullColumns = ‘option

見つからない列の処理方法を決める任意の属性。これはProducerオペレータの区切りデータにのみ適用されます。

この属性を利用するには、AcceptMissingColumnsは'Y[es]'または'Y[eswithoutlog]'でなければなりません。また、QuotedDataは'Y[es]'または'O[ptional]'でなければなりません。

有効な値は次のとおりです。
  • 'Y[es]' = 新しいジョブ作成列はNULL (デフォルト)。
  • 'N[o]' = 新しいジョブ作成列は空の文字列""を含む。

以下の例では、区切り記号文字はデフォルトの|文字。QuotedDataは有効で、AcceptMissingColumnsは'Y'です。スキーマの例は次のとおりです。

...
(VARCHAR(5), VARCHAR(5), VARCHAR(5), VARCHAR(5), VARCHAR(5), VARCHAR(5))
...

最初のサンプル データ レコードは次のとおりです。

"abc"|""||"def"

スキーマは6つのフィールドを必要としますが、レコードが提供するのは4つのフィールドのみです。

フィールド1、2および4には、文字列"abc"、""、および"def"が含まれています。

""はNULLではないことに注意してください。これは、長さゼロの文字列です。他の文字列と同じ方法で処理されます。

フィールド3は、明示的にNULL列で指定されます。元のレコードの一部なので、NullColumns属性の影響を受けません。

フィールド5と6は提供されておらず、DataConnector Producerオペレータで作成する必要があります。

NullColumnsが'Y[es]'に設定されているか、デフォルトの動作が使用されている場合は、データ ファイルにレコードが含まれているかのような結果になります。

"abc"|""||"def"|||

新しく作成された列の両方がNULLです。

しかし、NullColumns = 'N[o]'を使用すると、レコードが次のように定義されているかのように動作します。

"abc"|""||"def"|""|""

新しく作成された列には空の文字列が含まれます。

どちらも元のデータ レコードの一部であったフィールド2と3は、NullColumns属性の設定に関係なく変更されません。

この属性は、Consumerオペレータでは無視されます。

OpenMode = 'mode'

読み取り/書き込みアクセス モードを指定する任意の属性。

有効な値は次のとおりです。
  • 'Read' = 読み取り専用アクセス。プロデューサオペレータに対してのみ有効です。
  • 'Write' = 書き込み専用アクセス。コンシューマー演算子に対してのみ有効です。
  • 'WriteAppend' = 既存ファイルに追加する書き込み専用アクセス。コンシューマー演算子に対してのみ有効です。

OpenModeのmodeを指定しない場合、Producerオペレータでは'Read'が、Consumerオペレータでは'Write'がデフォルトとなります。

OpenQuoteMark = 'character(s)'

区切りデータ内の開始引用符の文字シーケンスを定義する任意選択の属性。デフォルト値は二重引用符「"」です。

セッション文字セットの任意のシングルバイトまたはマルチバイトの値になります。例: 「"」または「||」

Producerオペレータの場合、QuotedDataを‘Yes’または‘Optional’に設定する必要があります。Consumerオペレータの場合は、QuotedDataを‘Yes’に設定する必要があります。

PrivateLogName = 'logName'

Teradata PT Loggerによってパブリック ログ内部に保持されるログの名前を指定する任意の属性。プライベート ログには、オペレータによってTraceLevel属性を使用して生成されたすべての診断トレース メッセージが含まれます。

logNameの値には、ハイフンとインスタンス番号が付加されます。例えば、PrivateLogName = 'DClog'の場合、インスタンス1の実際のログ名はDClog-1になります。同様にインスタンス2はDClog-2となり、以下同様に続いていきます。

プライベート ログは、tlogviewコマンドを次のように使用すると表示できます。ここで、jobIdはTeradata PTのジョブ名を、privatelognameは、オペレータのPrivateLogName属性の値(ハイフンとインスタンス番号を含む)を示します。

tlogview -j jobId -f privatelogname

プライベート ログを指定しない場合、出力はすべてパブリック ログに格納されます。

tlogviewコマンドの詳細については、Teradata PTユーティリティのコマンドを参照してください。

この属性は、ProducerオペレータとConsumerオペレータの両方で有効です。

QuotedData = ‘option

区切りデータを引用符で囲むかどうかを決定する任意の属性。

有効な値は次のとおりです。
  • 'Yes'または'Y' = すべての列を引用符で囲みます。Producerオペレータの場合、データがデータ ストリームに書き込まれる前に引用符は破棄されます。Consumerオペレータの場合は、列データが出力ファイルに書き込まれる前に引用符が追加されます。
  • ‘No’または‘N’ = 列を引用符で囲みません(デフォルト)。Producerオペレータの場合、引用符はデータとして扱われます。Consumerオペレータの場合は、引用符が列データに追加されることはありません。
  • ‘Optional’ = 列は任意で引用符で囲むことができます。プロデューサ演算子の場合、引用符が見つかった場合、データがデータ ストリームに書き込まれる前に引用符は破棄されます。コンシューマー演算子の場合、引用符は、列データに埋め込み引用符または埋め込みテキスト区切り記号が含まれている場合にのみ追加されます。
RecordErrorFileName = ‘filePath’

区切りデータ ファイルの読み取り時にエラー レコードを格納する場所を指定する任意の属性。エラー レコードには、列の数が間違っているものと、列の長さが無効なもののいずれかが含まれます。これはProducerオペレータにのみ適用されます。

ErrorLimit属性は、このファイルに書き込むことができるエラー レコードの数を指定します。

この属性が定義されていない場合、最初に発生したエラー レコードは致命的なオペレータ エラーとなり、ジョブが終了します。

この属性は、Consumerオペレータでは無視されます。

RecordErrorVerbosity = ‘option

RecordErrorFileName属性が設定されている場合に、レコード エラー ファイルに注釈を付けられるようにする任意の属性。これはProducerオペレータにのみ適用されます。

有効な値は次のとおりです。
  • ‘Off’ = レコード エラー ファイルに注釈は挿入されません(デフォルト)。
  • ‘Low’ = エラーの性質を説明するエラー メッセージが挿入されます。
  • ‘Med’ = エラーの性質を説明するエラー メッセージとともに、ファイル名とレコード番号が挿入されます。
  • ‘High’ = ‘Med’と同じです。

この属性は、Consumerオペレータでは無視されます。

RecordsPerBuffer = count

MultipleReaders = 'Yes'の場合の各処理フェーズ中に、Producerオペレータの各インスタンスによって処理されるレコードの数を定義する任意の属性。有効な値は1~999999です。

デフォルト値は、バッファ サイズ(1048575)をワーカー リーダー インスタンスの数で割ることで算出されます。

次に、その結果をスキーマで定義されている最大レコード サイズで割ります。

ワーカー インスタンスの数は、オペレータ インスタンスの合計数から1を引いた値です。

例えば、10個のリーダー インスタンスが定義されていて、スキーマの長さが400バイトである場合、この値はデフォルトで1048575バイト/9インスタンス/400バイト=291レコードとなります。

この属性は、Consumerオペレータでは無視されます。

RowsPerInstance = rows

Producerオペレータの各インスタンスで処理される最大レコード数を指定する任意の属性。

この数値は複数のファイルに及びます。つまり、各インスタンスで行数が制限値に達するまで、ファイルの境界を越えて処理が継続されます。特定のインスタンスで行数が制限値に達すると、そのインスタンスは完了します。行の制限値に達しなかった特定のインスタンスは正常に終了します。

制限値は再始動を挟むと無効になります。つまり、再始動後は行カウントがゼロにリセットされます。

この属性は、Consumerオペレータでは無視されます。

SingleRecordWriting = ‘option

Access Moduleで、複数のレコードを含むことができるバッファを受け取る代わりに、書き込み操作ごとにレコードを1つ受け取ることができる任意の属性。このオプションは、有効なAccessModuleNameエントリを持つConsumerインスタンスにのみ適用されます。

有効な値は次のとおりです。
  • 'Yes'または'Y' = Access Moduleへの各書き込み操作に、レコードが1つだけ含まれます。
  • 'No'または'N' = Access Moduleへの各書き込み操作に、複数のレコードを含むバッファが1つ含まれます。'No'がデフォルト値です。

この属性は、Producerオペレータでは無視されます。

SkipRows = rows

Producerオペレータの各インスタンスでスキップされる行数を指定する任意の属性。

SkipRowsEveryFile属性によって、SkipRowsが複数のファイルに及んで再起動するかどうかが決まります。

この属性は、Consumerオペレータには無効です。

SkipRowsEveryFile = ‘option

SkipRows(上記)の動作を制御する任意の属性。これはProducerオペレータにのみ適用されます。

有効な値は次のとおりです。
  • 'Yes'または'Y' = SkipRows値により、各ファイルで先頭から処理が開始されます。例えば、SkipRows = 5、SkipRowsEveryFile = 'Yes'、それぞれ300行からなる、処理対象ファイルが5つの場合は、各ファイルの最初の5行がスキップされ、第6行から300行が処理されます。処理対象の各ファイルに繰り返し現われるヘッダ行をスキップするためにこのオプションを使用できます。
  • 'No'または'N' = SkipRows値は累積的に処理されます(デフォルト)。つまり、省略する行数が指定値に達するまで、ファイルの境界を越えて処理が継続されます。例えば、SkipRows = 1000、SkipRowsEveryFile = 'N'、それぞれ300行からなる、処理対象ファイルが5つの場合は、ファイル1、2、および3はスキップされ、ファイル4は101行から処理が開始され、ファイル5は全体が処理されます。失敗したジョブですでに処理された行をスキップするためにこのオプションを使用できます。

この属性は、Consumerオペレータでは無視されます。

TextDelimiter = 'character

区切りレコード内のフィールドを分離するバイト数を指定する任意の属性。セッション文字セットから任意の数のシングルバイト文字またはマルチバイト文字を定義できます。この属性は、Format = ’Delimited’の場合にのみ有効です。

デフォルトの区切り記号の値はパイプ文字( | )です。

TextDelimiterバイト シーケンスは、EscapeTextDelimiter属性で定義されているエスケープ シーケンスが前にある場合、データとして扱うことができます。

タブ文字を区切り文字として使用するには、TextDelimiter = 'TAB'を指定します。小文字の“tab”ではなく、大文字の“TAB”を使用します。

この属性は、ProducerオペレータとConsumerオペレータの両方で使用されます。

Timeout = seconds

Producerオペレータによる入力が完了するまでシステムが待機する時間を秒単位で指定する任意の属性。指定された値は、Producerオペレータに接続されているすべてのアクセス モジュールに渡されます。

有効値は1~99999秒です。

デフォルトは0(タイムアウトなし)です。

この属性は、Consumerオペレータには無効です。

TraceLevel = 'level'

オペレータの各インスタンスによってパブリック ログ(PrivateLogName属性で指定されている場合はプライベート ログ)に書き込まれる診断情報の種類を指定する任意の属性。

診断トレース機能によって、ログ ファイルに詳細な情報が提供されるため、問題の追跡や診断に役立ちます。トレース レベルは次のとおりです。
  • 'None' = トレース機能を無効にします(デフォルト)。 ステータス、エラーなどのメッセージをデフォルトでパブリック ログに格納します。

    PrivateLogFile属性のデフォルトは、'None'以外のTraceLevel属性が指定されている場合のみ使用されます。 'None'以外のTraceLevel属性がPrivateLog指定を使用せずに指定されている場合、DataConnectorオペレータによってプライベート ログ名が生成され、そのプライベート ログ名を含むメッセージがパブリック ログに発行されます。

    TraceLevel属性が指定されていない場合、または指定された値が'None'でPrivateLogFile属性が指定されている場合、TraceLevelは'Milestones'に設定されます。 推奨されるTraceLevel値は'None'です。この場合、ログ ファイルは生成されません。 'IO_Counts'より大きな値を指定すると、大量の診断情報が生成されます。

  • 'Milestones' = 初期化、アクセス モジュールのアタッチ/デタッチ操作、ファイルのオープンとクローズ、エラー状態などの主要イベントについてのみトレース機能を有効にします。
  • 'IO_Counts' = 主要イベントとI/Oカウントについてトレース機能を有効にします。
  • 'IO_Buffers' = 主要イベントとI/Oカウント、およびI/Oバッファについてトレース機能を有効にします。
  • 'All' = 主要イベントとI/Oカウント、I/Oバッファおよび関数エントリについてトレース機能を有効にします。
PrivateLogFile属性を使用してログ ファイルを指定する場合、TraceLevel属性を指定しないと、ログ ファイルには、以下に示す「最小限」の統計情報しか表示されません。
  • 処理するファイルの名前
  • 行送信の開始時の通知
  • 完了時の処理済み行数と消費済みCPU時間
  • DataConnectorオペレータの各インスタンスで処理された総ファイルと消費されたCPU時間
TraceLevel属性は、診断を支援するためにのみ指定します。この属性によって得られる追加情報の量とタイプは、ニーズの変化に合わせてリリースごとに変わります。これはパフォーマンスとディスク使用量に影響する可能性があるので、注意して使用する必要があります。

この属性は、ProducerオペレータとConsumerオペレータの両方で有効です。

TrimChar = ‘character’

Producerオペレータによって区切られた列データからトリムされる文字を指定する任意の属性。TrimColumns属性と組み合わせて使用します。

トリム文字の規則は次のとおりです。
  • トリム文字は1文字でなければなりませんが、セッション文字セットからシングルバイトまたはマルチバイト文字のいずれも使用できます。
  • デフォルト値は空白(スペース)文字です。
  • トリミングは引用符で囲まれた、または引用符で囲まれていないフィールドのいずれかで実行できます。
  • フィールドに1つ以上のトリム文字のみが含まれている場合、そのフィールドはトリミング後にゼロ長のVARCHARになります。

例えば、TextDelimiter = '|'、TrimChar = ‘a’、およびTrimColumns = ‘Both’の場合に、次の区切りレコードがあるとします。

a1|2aa|aaa|aaaa4aaaa

これは次のように処理されます。

1|2||4

この属性は、Consumerオペレータでは無視されます。

TrimColumns = ‘option

Producerオペレータによって区切られた列データから文字をトリムする方法を指定する任意の属性。TrimChar属性と組み合わせて使用します。

有効な値は次のとおりです。
  • 'None' = トリミングを行ないません(デフォルト)。
  • 'Leading' = 先頭の文字をトリムします。
  • 'Trailing' = 末尾の文字をトリムします。
  • 'Both' = 先頭と末尾の両方の文字をトリムします。
TrimColumnsおよびTruncateColumnDataを有効にした場合、トリミングは切り捨ての前に行なわれます。

この属性は、Consumerオペレータには無効です。

TruncateColumnData = ‘option’

スキーマでの定義より長い列の処理方法を決める任意の属性。これはProducerオペレータの区切りデータにのみ適用されます。

有効な値は次のとおりです。
  • 'Yes'または'Y' = 列は最大の長さに切り捨てられ、エラーが表示されずに処理されます。RecordErrorFileName属性で定義されている場合、編集されたレコードがデータベースに送信され、元のレコードはレコード エラー ファイルに保存されます。
  • 'No'または'N' = 長すぎる列はデータベースに送信されませんが、RecordErrorFileName属性で定義されている場合、元のレコードはレコード エラー ファイルに保存されます。RecordErrorFileNameが定義されていない場合は、致命的なエラーが発生します。'No'はデフォルト値です。
  • 'YesWithoutLog'または'YesW' = 列は最大の長さに切り捨てられ、エラーが表示されずに処理されます。編集された行はデータベースに送信されますが、元のレコードはレコード エラー ファイルには保存されません。

この属性は、Consumerオペレータでは無視されます。

VigilElapsedTime = minutes

Producerオペレータによるアクティブ ディレクトリ スキャンについて、ジョブの開始から終了までの経過時間を指定する任意の属性。

これはVigilStartTimeからの待ち時間であり、DirectoryPath属性で指定されたディレクトリへの新しいファイルの到着が監視されます。VigilStartTime属性が設定されていない場合は、システムの現在時刻が開始時刻として使用されます。VigilElapsedTimeは分単位で表わされます。例えば、時間枠が2時間15分の場合は次のように指定します。

VigilElapsedTime = 135

VigilElapsedTimeとVigilStopTimeは交換可能ですが、相互に排他的です。VigilElapsedTimeのデフォルト値はありません。また、ArchiveDirectoryPathも設定する必要があります。

この属性は、Consumerオペレータには無効です。

VigilMaxFiles = numberOfFiles

アクティブ ディレクトリ スキャンについて、Producerオペレータで1回にスキャンできるファイル数の最大値を定義する任意の属性。

この値を大きくすると、より多くのTeradata PTグローバル メモリが必要となり、パフォーマンスが低下する可能性があります。

numberOfFilesに指定できる値の範囲は、10~50000です。デフォルト値は2000です。

VigilMaxFiles属性を使用するには、ArchiveDirectoryPath属性の値を、VigilStartTimeとVigilStopTime(またはVigilElapsedTime)とともに指定する必要があります。

属性の値は外部コマンド インターフェースでジョブ実行中に変更できます。 実行中にVigilMaxFilesの値を変更するためには、次のように入力します。

twbcmd  <Teradata PT job ID> <operator ID>  VigilMaxFiles=<number of files>

この属性は、Consumerオペレータでは無視されます。

VigilNoticeFileName = 'noticeFileName'

アクティブ ディレクトリ スキャンについて、Producerオペレータによって監視通知フラグが書き込まれるファイルの名前を指定する任意の属性。

例えば、/home/user/Alert.txtファイルにレコードを書き込むように指示するためには、次のように指定します。

VigilNoticeFileName = '/home/user/Alert.txt'

ディレクトリ パスを指定しない場合、ファイルは現在の作業ディレクトリに保存されます。

ファイル名を指定すると、この通知機能が有効になります。

ArchiveDirectoryPath属性の値を、VigilStartTimeとVigilStopTime(またはVigilElapsedTime)とともに指定する必要があります。

この属性は、Consumerオペレータでは無視されます。

VigilSortField = ‘sortTime’

アクティブ ディレクトリ スキャンについて、Producerオペレータによってファイルを特定の順序で整列できるようにする任意の属性。

有効な値は次のとおりです。
  • 'TIME' = すべてのファイルがその最終変更時間で整列されます。
  • 'NAME' = すべてのファイルがファイル名で整列され、アルファベット順に処理されます。
  • 'NONE' = 整列機能がオフになります(デフォルト)。

ファイルに関連する時間が追跡されるのは直近の秒までであるため、複数のファイルでタイムスタンプが同じになる場合があります。 ファイルの変更時間に1秒以上の差がない場合は、ファイルの整列順が実際の変更順序を表わしていないこともあります。

複数のインスタンスを使用する場合、ファイルを特定の順序で処理することはできません。この属性を使用すると、Teradata PTにより、ジョブ ステップで使用できるDataConnector Producerオペレータのインスタンスが1つのみになります。複数のインスタンスを指定すると、ジョブが失敗します。

ArchiveDirectoryPath属性の値を、VigilStartTimeとVigilStopTime(またはVigilElapsedTime)とともに指定する必要があります。

この属性は、Consumerオペレータには無効です。

この属性は、z/OSシステムでは使用できません。
VigilStartTime = 'yyyymmdd hh:mm:ss'

Producerオペレータによって、アクティブ ディレクトリ スキャンの監視時間枠の開始時刻を指定する任意の属性。DirectoryPath属性で指定されたディレクトリへの新しいファイルの到着を監視する期間を定義できます。

開始時刻は次のように表わします。
  • yyyy - 4桁の西暦(2000~3000)
  • mm - 月(1~12)
  • dd - 日(1~31)
  • hh - 時(0~23)
  • mm - 分(0~59)
  • ss - 秒(0~59)

例えば、2019年8月23日の午前9時22分56秒に開始する場合は次のようになります。

VigilStartTime = '20190823 09:22:56'

この属性は、VigilWaitTime属性の動作に必須です。

VigilStartTimeのデフォルト値はありません。また、ArchiveDirectoryPathも、VigilStopTimeまたはVigilElapsedTimeのいずれかとともに設定する必要があります。

この属性は、Consumerオペレータには無効です。

VigilStopTime = ‘yyyymmdd hh:mm:ss

Producerオペレータによって、アクティブ ディレクトリ スキャンの監視時間枠の終了時刻を指定する任意の属性。DirectoryPathで指定されたディレクトリへの新しいファイルの到着を監視する期間を定義できます。

終了時刻は次のように表わします。
  • yyyy - 4桁の西暦(2000~3000)
  • mm - 月(1~12)
  • dd - 日(1~31)
  • hh - 時(0~23)
  • mm - 分(0~59)
  • ss - 秒(0~59)

例えば、2019年8月23日の午後2時に終了する場合は次のようになります。

VigilStopTime  = '20190823 14:00:00'

VigilStopTimeとVigilElapsedTimeは交換可能ですが、相互に排他的です。VigilStopTimeのデフォルト値はありません。また、ArchiveDirectoryPathも、VigilStartTimeとともに設定する必要があります。

この属性は、Consumerオペレータには無効です。

VigilWaitTime = waitSeconds

アクティブ ディレクトリ スキャンについて、Producerオペレータによって新しいファイルが見つからなかった場合に、ディレクトリのチェックを再び開始するまでの待ち時間を指定する任意の属性。

待ち時間が2分の場合、値は次のようになります。

VigilWaitTime = 120

デフォルトの待ち時間は60秒です。

VigilWaitTime属性を使用するには、ArchiveDirectoryPath属性の値を、VigilStartTimeとVigilStopTime(またはVigilElapsedTime)とともに指定する必要があります。

属性の値は外部コマンド インターフェースでジョブ実行中に変更できます。 実行中にVigilWaitTimeの値を変更するためには、次のとおり入力します。

twbcmd  <Teradata PT job ID> <operator ID>  VigilWaitTime=<Seconds>

この属性は、Consumerオペレータでは無視されます。

WriteBOM = 'option'

Unicode出力ファイルの先頭にBOM(バイト オーダー マーク)を挿入できるようにする任意の属性。

このオプションは、UTF-8またはUTF-16文字セットを使用しているテキスト ファイル(Format属性が'Text'または'Delimited’)に書き込むConsumerインスタンスにのみ適用されます。

有効な値は次のとおりです。
  • 'Yes'または'Y' = 文字セットのエンコーディングに基づいて、出力ファイルの先頭にBOMを挿入します。
  • 'No'または'N' = Unicode出力ファイルの先頭にBOMを挿入しません。'No'がデフォルト値です。

この属性は、Producerオペレータには無効です。