必須属性および任意属性 - Parallel Transporter

Teradata Parallel Transporterリファレンス

Product
Parallel Transporter
Release Number
16.20
Published
2018年4月
Language
日本語
Last Update
2018-09-07
dita:mapPath
ja-JP/sje1512702724707.ditamap
dita:ditavalPath
ja-JP/sje1512702724707.ditaval
dita:id
B035-2436
Product Category
Teradata Tools and Utilities

DataConnectorオペレータの必須および任意の属性値を宣言するためには、Teradata PTのDEFINE OPERATOR文で属性定義リスト構文を使用します。

複数ファイルの並列処理が可能です。DirectoryPath属性で基本ディレクトリを指定し、読み取りを行なう一連のファイルの選択基準としてワイルドカードをFileName属性で指定することにより、プロデューサ型DataConnectorオペレータのインスタンスを複数使用できるようになります。

'Hadoop'で始まる属性を指定すると、DataConnectorオペレータは、ローカルのファイル システムにあるファイルやディレクトリではなく、Hadoopのファイル、ディレクトリ、およびテーブルを処理します。詳細は、Hadoopのファイルとテーブルの処理を参照してください。











使用場所:

DataConnector属性の説明
構文要素 説明
AcceptExcessColumns = ‘option’ 行に上限を超える列数を含めることができるかどうかを指定する任意の属性。

有効な値は次のとおりです。

  • 'Yes'または'Y' = 行に上限を超える列が含まれる場合、スキーマで定義された列数になるよう超過した分の列が切り捨てられ、切り捨てられた列は後ろに送られます。

    編集されたレコードがTeradata Databaseに送信され、元のレコードはレコード エラー ファイルに保存されます。

  • 'No'または'N' = AcceptExcessColumnsは呼び出されません(デフォルト)。
  • ‘YesWithoutLog’ = 編集された行はTeradata Databaseに送信されますが、元のレコードはレコード エラー ファイルに保存されません。
AcceptMissing Columns = ‘option’ 列カウントがスキーマでの定義より少ない行の処理方法を決める任意の属性。

有効な値は次のとおりです。

  • 'Yes'または'Y' = 行が正しい列数になるまで拡張されます。それぞれ付加される列は長さがゼロの列になり、NullColumns属性の値によって処理されます。編集されたレコードがTeradata Databaseに送信され、元のレコードはレコード エラー ファイルに保存されます。
  • 'No'または'N' = AcceptMissingColumnsは呼び出されません(デフォルト)。
  • ‘YesWithoutLog’ = 編集された行はTeradata Databaseに送信されますが、元のレコードはレコード エラー ファイルに保存されません。
AccessModuleInitStr = 'initString' 特定のアクセス モジュールの初期化文字列を指定する任意の属性。

initString値については、<Teradata Tools and Utilities Access Moduleリファレンス、B035-2425>の各モジュールに関する「初期化文字列」の節を参照してください。

AccessModuleName = 'name' アクセス モジュールのファイル名を指定する任意の属性。ここで、'name'の値は以下に依存します。

Teradata Access Module for Amazon S3 for Teradata Parallel Transporter

  • Linuxプラットフォームの場合、libs3axsmod.so

Teradata Access Module for Named Pipes for Teradata Parallel Transporter

  • Apple OS Xプラットフォームの場合、libnp_axsmod.dylib
  • 他のすべてのUNIXプラットフォームの場合、np_axsmod.so
  • Windowsプラットフォームの場合、np_axsmod.dll

Teradata Access Module for WebSphere MQ for Teradata Parallel Transporter (クライアント バージョン)

  • Apple OS Xプラットフォームの場合、libmqsc.dylib
  • 他のすべてのUNIXプラットフォームの場合、libmqsc.so
  • Windowsプラットフォームの場合、libmqsc.dll

Teradata Access Module for WebSphere MQ for Teradata Parallel Transporter (サーバー バージョン)

  • Apple OS Xプラットフォームの場合、libmqs.dylib
  • 他のすべてのUNIXプラットフォームの場合、libmqs.so
  • Windowsプラットフォームの場合、libmqs.dll

Teradata Access Module for OLE DB for Teradata Parallel Transporter

  • Windowsプラットフォームの場合、oledb_axsmod.dll
Teradata Access Module for Kafka for Teradata Parallel Transporter
  • Linuxプラットフォームの場合、libkafkaaxsmod.so
Teradata Access Module for Azure for Teradata Parallel Transporter
  • Linuxプラットフォームの場合、libazureaxsmod.so

カスタム アクセス モジュールを使用する場合は、共有ライブラリ ファイル名を使用します。

オペレータによって、使用するプラットフォームに適切な接尾辞が付加されるため、アクセス モジュール名に接尾辞は必要ありません。

DataConnectorオペレータは、システム パラメータが適切に設定されている場合、Windows、HP-UX、AIX、およびSPARCシステム版Solarisで2ギガバイトを超えるサイズのファイルをサポートするようになったため、ラージ ファイル アクセス モジュールは使用不可になりました。

Teradata PTは、Teradata Access Module for Named PipesおよびTeradata Access Module for WebSphere MQのスタンドアロン バージョンをサポートします。

AppendDelimiter 書き込まれたすべてのレコードの最後に区切り記号を追加する任意の属性。 区切られた出力ファイルを作成するときは、AppendDelimiterを使用します。

レコードの最後の列がNULLの場合、区切り文字はその列がNULLであることを示します。

有効な値は次のとおりです。

  • 'Yes'または'Y' = 書き込まれたすべてのレコードの最後に区切り記号を追加します。
  • 'No'または'N' = 書き込まれたすべてのレコードの最後に区切り記号を追加しません(デフォルト)。
ArchiveDirectoryPath = ’pathName’ 現在のディレクトリからすべての処理済みファイルを移動するディレクトリの完全なパス名を定義します(DirectoryPath属性により指定)。

VigilMaxFiles属性の値を指定する場合は、この属性が必須です。

DataConnector Consumerの複数インスタンスが要求されると、出力ファイル名にシーケンス番号が付加されます。 チェックポイントが完了するたびに、各インスタンスの現在の出力ファイルが閉じられ、アーカイブが作成されます。インスタンス番号が付いた新しいファイルが、各インスタンスに対して開かれ、付加されるシーケンス番号はインクリメントされます。

ArchiveFatal = ’option’ アーカイブ(ファイルの移動)に失敗した場合の処置を定義します。

有効な値は次のとおりです。

  • 'Yes'または'Y' =ジョブが終了します(デフォルト)。
  • 'No'または'N' = 警告が表示されて処理が続行されます。
CloseQuoteMark = " 終了引用符。

セッション文字セットの任意のシングルバイトまたはマルチバイトの値になります。 例:「"」または「| |」

デフォルト値は、属性OpenQuoteMarkに指定された値です。

DirectoryPath = 'pathName' FileName属性のワイルドカード機能をサポートする任意の属性。

FileName属性によって指定されたファイルの場所(またはPDSメンバー)に対して既存の基本ディレクトリ パス(またはz/OS PDSデータセット名)を指定する場合は、この属性を使用します。 z/OSデータセット(DD:DATA)がFileName属性で指定されている場合は、この属性を使用できません。

JCL DD文を持つz/OS PDSデータセットを指定するには、次の例に示すように、DirectoryPath属性値に接頭辞「DD:」を付けます。

DirectoryPath='DD:<ddname>'

z/OS PDSデータ セットを直接指定するには、以下の構文を使用します。

DirectoryPath=’//’’dataset-name’’’

この属性のデフォルトは、ジョブが実行されているディレクトリ(DEFINE JOB文で指定されたジョブ作業ディレクトリ)に設定されています。

FileName属性にディレクトリ構文が含まれている場合、DirectoryPath属性は空にしておきます。

DataConnectorがコンシューマ型インスタンスである場合も、DirectoryPath属性を空にしておきます。

DataConnectorがプロデューサ型インスタンスである場合、FileName属性内にディレクトリ名が含まれていなければ、ディレクトリ パス指定がファイル名の先頭に付加されます。

EnableScan = ‘mode’ アクセス モジュールを使用している場合、ディレクトリ スキャン ロジックを無視する任意の属性。
  • ‘Yes’または‘Y’ = オペレータは、元の動作(ディレクトリを自動的にスキャンする)を維持します(デフォルト)。
  • 'No'または'N' = オペレータによりディレクトリ スキャン機能が無視され、FileName属性で指定されたファイルだけが直接アクセス モジュールに渡されます。

FileName属性でワイルドカード文字が指定されているにもかかわらず、この属性を'No'に設定すると、DataConnectorログに警告メッセージが生成されます。

ErrorLimit =errorLimit errorLimit = (0 - 2147483647)

0 = デフォルト(無制限)

DataConnectorオペレータ ジョブを終了するまでにエラー行ファイルに格納できるレコードの概数を指定する任意の属性。 ErrorLimitを指定しないと、ErrorLimitの値が0の場合と同じです。 ErrorLimitの指定は、DataConnectorオペレータの各インスタンスに適用されます。

「RecordErrorFileName」属性が定義されている場合(従来「RowErrFileName」と呼ばれていたもので、次のリリースで廃止されます)、エラー レコードは指定したファイルに保存され、ジョブは致命的なエラーで終了することなく追加のレコードを処理し続けます。

新しい属性「ErrorLimit」も宣言される場合、以前説明したエラー処理は指定したエラー制限に達するまで続き、その後ジョブは致命的なエラーで終了します。

ErrorLimit属性の影響については、<Teradata Parallel Transporterユーザー ガイド、B035-2445>を参照してください。

サポートされていてもマニュアルに記載されなくなった廃止された構文の一覧については、非推奨の構文を参照してください。
EscapeQuoteDelimiter=‘close-quote 区切りデータ内のエスケープ引用符を定義するための任意の属性。 デフォルト値 は‘close-quote’です。 引用符で囲まれた区切りデータの処理の規則を参照してください。

区切り形式でデータを処理する際に、OpenQuoteMarkまたはCloseQuoteMarkの前にEscapeQuoteDelimiterがある場合には、引用符(開始または終了のどちらか)のそのインスタンスは引用符で囲まれた文字列の開始または終了を表わすマークではなくデータ内に組み込まれます。

EscapeTextDelimiter = ‘character’ 区切りデータ内の区切り文字のエスケープ文字を定義するための任意の属性。 デフォルトのデータはありません。

区切り形式でデータを処理する際に、区切り文字の前にEscapeTextDelimiterによって定義されているエスケープ シーケンスがある場合には、区切り文字のそのインスタンスは列の終わりを表わすマークではなくデータ内に組み込まれます。EscapeTextDelimiterで定義されたエスケープの直後に区切り記号文字がない場合、データは通常とみなされ、それ以上の処理は行なわれません。

例えば、デフォルトの区切り文字がパイプ( | )で、EscapeTextDelimiterが円記号の場合に、列にabc\|def|というデータが入力されたとすると、そのデータはabc|defとしてロードされます。

FileList = 'option' fileNameとともに使用する任意の属性。

有効な値は次のとおりです。

'Yes'または'Y' = FileNameで指定したファイルに、処理対象のファイル リストが含まれます。

'No'または'N' = FileNameで指定したファイルには、処理対象のファイル リストが含まれません。

   VARCHAR FileList = 'Y'
DataConnectorオペレータは、ネットワークに接続されたプラットフォーム上のASCII、およびメインフレーム接続のプラットフォーム上のEBCDICでエンコードされたFileListファイルをサポートします。
FileName = 'fileName' 処理対象のファイル名を指定する必須の属性。

場合によっては、AccessModuleName属性を使用して指定したアクセス モジュールでファイル名が使用または認識されないことがあります。そのため、FileName属性の値の指定が必須ではないことがあります。 例えば、Teradata Access Module for IBM Websphere MQでは、ファイル名の指定が必須ではありません。

FileList属性とともに使用すると、fileNameは、処理対象のファイル名(それぞれフルパスで指定)のリストが含まれることが想定されます。 この場合、ワイルドカード文字は、FileName属性自体とそこに含まれるファイル名にも使用できません。 オペレータの複数インスタンスを使用すると、ファイルのリストを同時に処理できます。

Windowsプラットフォームの場合、'filename'オペレータ属性でワイルドカード文字(*)を使用すると、必要以上のファイルが誤って含まれる場合があります。例えば、*.datを指定すると、フォルダのディレクトリ スキャンは*.dat*と指定したかのようにファイルを検索します。例えば、拡張子.data.date、および.dat071503を持つファイルも検索されます。このため、まずフォルダから無関係なファイルを削除することが必要な場合があります。

GZIP圧縮ファイルの読み取りと書き込みは、すべてのOSプラットフォームでサポートされています。このサポートはファイルの拡張子に基づいて自動的に有効になります。gzipファイルの標準ファイル名拡張子は"*.gz"です。

Zip圧縮ファイルの読み取りと書き込みは、WindowsおよびUnixでサポートされますが、IBM z/OSではサポートされません。 このサポートはファイルの拡張子に基づいて自動的に有効になります。 zipファイルの標準ファイル名拡張子は"*.zip"です。

ZIP形式で読み取りと書き込みがサポートされるのは、単一ファイルのみです。

Hadoop/HDFSを使用する場合、GZIPおよびZIPファイルの読み取りと書き込みはサポートされません。

追加のz/OSデータセット構文については、有効なFileName構文表を参照してください。

Format = 'format' データの論理レコード形式を指定する必須の属性。 システム デフォルトはありません。

Formatで使用できる値は次のとおりです。

  • 'Binary' = 2バイトの整数nに、nバイトのデータが続きます。 このデータ形式では、行が64KB (64260データ バイト)以下である必要があります。 この形式では次のことに注意してください。

    データには接頭辞としてレコード長マーカーが付く。

    レコード長マーカーにはマーカー自体の長さは含まれない。

    レコード長は伝送データの一部ではない。

  • 'Binary4' = 4バイトの整数にnバイトのデータが続きます。 このデータ形式は、最大1MB (1000000データ バイト)のサイズの行をサポートします。 この形式では:

    データには接頭辞としてレコード長マーカーが付く。

    レコード長マーカーにはマーカー自体の長さは含まれない。

    レコード長は伝送データの一部ではない。

  • 'Delimited' = 各フィールドが区切り記号で分離されたテキスト形式。 Delimited形式を指定すると、任意のTextDelimiter属性を使用して区切り記号を指定できます。 デフォルトはパイプ文字( | )です。
    DataConnector Producerの形式属性が'delimited'に設定されている場合、関連するTeradata PTスキーマ オブジェクトはVARCHARまたはVARDATE列のみで構成されている必要があります。 VARCHAR以外、またはVARDATE以外の列を指定すると、エラーになります。
  • 'Formatted' = 先頭にはレコード長マーカーが、末尾にはレコード終了マーカーが付加されます。 このデータ形式では、行が64KB (64260データ バイト)以下である必要があります。 In this format:

    レコード長マーカーにはマーカー自体の長さは含まれない。

    レコード長もレコード終了マーカーも伝送データの一部ではない。

  • 'Formatted4' = 先頭には4バイト レコード長マーカーが、末尾にはレコード終了マーカーが付加されます。 このデータ形式は、最大1MB (1000000データ バイト)のサイズの行をサポートします。 この形式では:

    レコード長マーカーにはマーカー自体の長さは含まれない。

    レコード長もレコード終了マーカーも伝送データの一部ではない。

  • 'Text' = レコード終了(EOR)マーカーによって分離される文字データ。 EORマーカーは、シングルバイトのラインフィード(X'0A')またはダブルバイトの復帰/ラインフィードのペア(X'0D0A')のいずれかで、最初のレコードで見つかった最初のEORマーカーで決まります。 この形式の場合、列のデータ型はCHARまたはANSIDATEのみに制限されます。
  • 'Unformatted' = フォーマットされません。非初期化データは、レコードやフィールドの区切り記号がなく、指定のTeradata PTスキーマによって全体が記述されます。
HadoopBlockSize= (x * 1K bytes)' ブロック/バッファのサイズを指定する任意の属性で、Hadoop/HDFSファイルに書き込むときに1K単位で増加します。 HadoopBlockSize値は、1からx 1Kバイトのどこか(xは任意)で定義することができます。 Hadoop/HDFSクラスタの典型的なデフォルトのブロック サイズは64MBで、これはTPTも使用するものです(65536 * 1024 = 64MB)。

この属性を使用してデフォルトを変更する前に、システム管理者に確認してください。 この値はメモリの消費に影響する(実行時に割り当てられる内部バッファのサイズが2倍になる)ため、むやみに変更すべきではありません。

有効な値は次のとおりです。

  • 1 - 2147483647
  • 0 = デフォルト値
デフォルト値 = 65536。
HadoopFileFormat= 'hadoopFileFormat' TDCHジョブが処理すべきファイルの形式を指定する任意の属性。 DataConnectorのHadoopインターフェース、およびサポートされている値やデフォルト値のTeradata Connector for Hadoopチュートリアルの詳細については、Hadoopのファイルとテーブルの処理を参照してください。
HadoopHost= 'hadoopHostName' Hadoopクラスタにおけるネームノードのホスト名またはIPアドレスを指定する任意の属性。

TDCHジョブを起動するとき、この値は、TPTジョブを実行しているHadoopクラスタにあるノードのホスト名またはIPアドレスである必要があります。 ホスト名およびIPアドレスは、Hadoopクラスタにあるすべてのデータノードから到達可能である必要があります。 DataConnectorのHadoopインターフェースの詳細については、 Hadoopのファイルとテーブルの処理を参照してください。.

HDFS APIジョブを起動するとき、この値は、HDFS操作を実行するクラスタを示し、以下のように設定できます。

“default" = Hadoop HDFS構成ファイルで宣言されたデフォルトの名前ノード。

<host-name>:<port> = HDFS操作を実行するクラスタの、名前ノードのホスト名/IPアドレスおよびポート。“:<port>"値は任意です。

HadoopJobType= 'hadoopJobType' 起動するTDCHジョブの種類を指定する任意の属性。 DataConnectorのHadoopインターフェース、およびサポートされている値やデフォルト値のTeradata Connector for Hadoopチュートリアルの詳細については、Hadoopのファイルとテーブルの処理を参照してください。
HadoopNumMappers= 'hadoopNumMappers' TDCHが起動するmapperの数を指定する任意の属性。 DataConnectorのHadoopインターフェース、およびサポートされている値やデフォルト値のTeradata Connector for Hadoopチュートリアルの詳細については、Hadoopのファイルとテーブルの処理を参照してください。
HadoopSeparator= 'hadoopSeparator' TDCHジョブが処理するファイルでフィールドを区切る文字を指定する任意の属性。 この属性は、属性のデフォルト値である'HadoopFileFormat'が'textfile'に設定されている場合に限り有効です。 DataConnectorのHadoopインターフェース、およびサポートされている値やデフォルト値のTeradata Connector for Hadoopチュートリアルの詳細については、Hadoopのファイルとテーブルの処理を参照してください。
HadoopSourceDatabase='hadoopSourceDatabase' データのエクスポート元である、HiveまたはHcatalog上のソース データベースの名前を指定する任意の属性。 DataConnectorのHadoopインターフェース、およびサポートされている値やデフォルト値のTeradata Connector for Hadoopチュートリアルの詳細については、Hadoopのファイルとテーブルの処理を参照してください。
HadoopSourceFieldNames = 'hadoopSourceFieldNames' ソースHDFSファイルから、またはソースHiveおよびHCatalogテーブルからエクスポートするフィールドの名前を、カンマ区切り形式で指定する任意の属性。 DataConnectorのHadoopインターフェース、およびサポートされている値やデフォルト値のTeradata Connector for Hadoopチュートリアルの詳細については、Hadoopのファイルとテーブルの処理を参照してください。
HadoopSourcePartitionSchema= 'hadoopSourcePartitionSchema' Hiveにあるソース テーブルの完全パーティション スキーマを、カンマ区切り形式で指定する任意の属性。 この属性は、'HadoopJobType'が'hive'に設定されている場合にのみ有効です。 DataConnectorのHadoopインターフェース、およびサポートされている値やデフォルト値のTeradata Connector for Hadoopチュートリアルの詳細については、Hadoopのファイルとテーブルの処理を参照してください。
HadoopSourcePaths= 'hadoopSourcePaths' HDFS上の、エクスポートされるソース ファイルのディレクトリを指定する任意の属性。 この属性は、'HadoopJobType'が'hdfs'に設定されている場合に必須で、'HadoopJobType'が'hive'に設定されている場合は任意、また'HadoopJobType'が'hcat'に設定されている場合は無効です。 DataConnectorのHadoopインターフェース、およびサポートされている値やデフォルト値のTeradata Connector for Hadoopチュートリアルの詳細については、Hadoopのファイルとテーブルの処理を参照してください。
HadoopSourceTable = 'hadoopSourceTable' データのエクスポート元である、HiveまたはHcatalog上のソース テーブルの名前を指定する任意の属性。 この属性は、'HadoopJobType'が'hcat'に設定されている場合に必須で、'HadoopJobType'が'hive'に設定されている場合は任意、また'HadoopJobType'が'hdfs'に設定されている場合は無効です。 DataConnectorのHadoopインターフェース、およびサポートされている値やデフォルト値のTeradata Connector for Hadoopチュートリアルの詳細については、Hadoopのファイルとテーブルの処理を参照してください。
HadoopSourceTableSchema= 'hadoopSourceTableSchema' HiveまたはHcatalog上のソース テーブルの完全列スキーマを、カンマ区切り形式で指定する任意の属性。 DataConnectorのHadoopインターフェース、およびサポートされている値やデフォルト値のTeradata Connector for Hadoopチュートリアルの詳細については、Hadoopのファイルとテーブルの処理を参照してください。
HadoopTargetDatabase= 'hadoopTargetDatabase' データのインポート先である、HiveまたはHcatalog上のターゲット データベースの名前を指定する任意の属性。 これは、「hive」や「hcat」ジョブの場合に任意で、「hdfs」ジョブの場合は無効です。 DataConnectorのHadoopインターフェース、およびサポートされている値やデフォルト値のTeradata Connector for Hadoopチュートリアルの詳細については、Hadoopのファイルとテーブルの処理を参照してください。
HadoopTargetFieldNames = 'hadoopTargetFieldNames' HDFS上のターゲット ファイル、またはターゲットHiveおよびHCatalogテーブルに書き込むフィールドの名前を、カンマ区切り形式で指定する任意の属性。 DataConnectorのHadoopインターフェース、およびサポートされている値やデフォルト値のTeradata Connector for Hadoopチュートリアルの詳細については、Hadoopのファイルとテーブルの処理を参照してください。
HadoopTargetPartitionSchema= 'hadoopTargetPartitionSchema' HDFS上のターゲット ファイル、またはターゲットHiveおよびHCatalogテーブルに書き込むフィールドの名前を、カンマ区切り形式で指定する任意の属性。 DataConnectorのHadoopインターフェース、およびサポートされている値やデフォルト値のTeradata Connector for Hadoopチュートリアルの詳細については、Hadoopのファイルとテーブルの処理を参照してください。
HadoopTargetPaths= 'hadoopTargetPaths' HDFS上の、インポートされるソース ファイルのディレクトリを指定する任意の属性。 この属性は、'HadoopJobType'が'hdfs'に設定されている場合に必須で、'HadoopJobType'が'hive'に設定されている場合は任意、また'HadoopJobType'が'hcat'に設定されている場合は無効です。 DataConnectorのHadoopインターフェース、およびサポートされている値やデフォルト値のTeradata Connector for Hadoopチュートリアルの詳細については、Hadoopのファイルとテーブルの処理を参照してください。
HadoopTargetTable= 'hadoopTargetTable' データがインポートされる、HiveまたはHcatalog上のターゲット テーブルの名前を指定する任意の属性。 この属性は、'HadoopJobType'が'hcat'に設定されている場合に必須で、'HadoopJobType'が'hive'に設定されている場合は任意、また'HadoopJobType'が'hdfs'に設定されている場合は無効です。 DataConnectorのHadoopインターフェース、およびサポートされている値やデフォルト値のTeradata Connector for Hadoopチュートリアルの詳細については、Hadoopのファイルとテーブルの処理を参照してください。
HadoopTargetTableSchema= 'hadoopTargetTableSchema' HiveまたはHcatalog上のターゲット テーブルの完全列スキーマを、カンマ区切り形式で指定する任意の属性。 DataConnectorのHadoopインターフェース、およびサポートされている値やデフォルト値のTeradata Connector for Hadoopチュートリアルの詳細については、Hadoopのファイルとテーブルの処理を参照してください。
HadoopUser= 'hadoopUser' HDFSAPIインターフェース経由でファイルの読み取りおよび書き込みを行なう場合に利用するHadoopユーザーの名前を指定する任意の属性。 この属性が指定されていない場合は、その時点でTPT HDFSジョブを実行しているログイン ユーザー名が使用されます。 DataConnectorのHadoopインターフェースの詳細については、Hadoopのファイルとテーブルの処理を参照してください。
IndicatorMode = 'mode' 各レコードの先頭に標識バイト数を組み込むかどうかを指定する任意の属性。
  • 'Yes'または'Y' = 標識モード データ。「text」や「delimited」レコード形式では、この値が無効です。
  • 'No'または'N' = 非標識モード データ(デフォルト)。
MaxColumnCountErrs = numberOfErrors プライベート ログに書き込まれる列カウント エラーの最大数を指定する任意の属性。

有効な値は、次のとおりです。 >1 . . . <99999

列カウント エラーの数が指定された値に達すると、メッセージがプライベート ログとパブリック ログの両方に発行され、それ以上のエラーはこれらのログに書き込まれません。

プライベート ログに書き込まれたこれらのエラー行の合計数は、終了時にプライベート ログに表示されます。

NamedPipeTimeOut = seconds 名前付きパイプ (FIFO)のチェックを可能にする任意の属性。秒数が正の数に設定されている場合、データが利用可能になるまで、または指定した時間が経過してジョブが終了するまで、DataConnectorオペレータはパイプのデータを毎秒チェックします。属性が指定されていない場合、パイプのチェックは行なわれません。これによりパフォーマンスが向上しますが、読み込み時にパイプ内でデータが利用できない場合は、ハング ジョブになる可能性もあります。

この属性はパイプを直接読み取るためにDataConnectorオペレータを使用するジョブ専用です。Named Pipe Access Module (NPAM)がパイプI/Oを実行するときには使用されません。

MultipleReaders = 'option ' 任意選択の属性で、'Yes'が設定されると、Data Connector Producerオペレータに対して、複数のインスタンスが単一のファイルから同時に読み取りできるように、指示します。
NotifyExit = 'inmodName' _dynamnという名前のエントリ ポイントを持つユーザー定義の通知出口ルーチンの名前を指定する任意の属性。 値を指定しない場合、次のデフォルト名が使用されます。
  • Windowsプラットフォームの場合、libnotfyext.dll
  • Apple OS Xプラットフォームの場合、libnotfyext.dylib
  • 他のすべてのUNIXプラットフォームの場合、libnotfyext.so
  • z/OSプラットフォームの場合、NOTFYEXT

独自の通知出口ルーチンを指定する方法については、非推奨の構文を参照してください。

NotifyLevel = ' notifyLevel ' 特定のイベントをレポートするレベルを指定する任意の属性。

有効な値は次のとおりです。

  • 'Off' = イベントの通知は実行されません(デフォルト)。
  • 'Low' = 通知レベル「低」の欄に「あり」と表示されているイベントが通知されます。
  • 'Med' = 通知レベル「中」の欄に「あり」と表示されているイベントが通知されます。
  • 'High' = 通知レベル「高」の欄に「あり」と表示されているイベントが通知されます。
NotifyMethod = 'notifyMethod イベントをレポートするためのメソッドを指定する任意の属性。メソッド:
  • 'None' = イベントをログに記録しません(デフォルト)。
  • 'Msg' = イベントをログに送ります。
  • 'Exit'= イベントをユーザー定義の通知出口ルーチンに送ります。
NotifyString = 'notifyString' システム ログに送られるすべてのメッセージの先頭に付加するユーザー定義文字列を指定する任意の属性。 この文字列は、ユーザー定義の通知出口ルーチンにも送られます。 文字列の最大長は次のとおりです。
  • NotifyMethodが'Exit'の場合、80バイト
  • NotifyMethodが'Msg'の場合、16バイト
NullColumns= ‘option スキーマで必要な列が一部しか区切りデータで指定されていない場合に、ジョブで作成する列の内容を決定します。

この属性を利用するには、AcceptMissingColumnsは'Y[es]'または'Y[eswithoutlog]'でなければなりません。また、QuotedDataは'Y[es]'または'O[ptional]'でなければなりません。

有効な値は次のとおりです。

  • 'Y[es]' = 新しいジョブ作成列はNULL (デフォルト)。
  • 'N[o]' = 新しいジョブ作成列は空の文字列""を含む。

これらの例では、区切り記号文字はデフォルトの|文字。QuotedDataは有効で、AcceptMissingColumnsは'Y'です。スキーマの例は次のとおりです。

...
(VARCHAR(5), VARCHAR(5), VARCHAR(5), VARCHAR(5), VARCHAR(5), VARCHAR(5))
...

最初のサンプル データ レコードは次のとおりです。

"abc"|""||"def"

スキーマは6つのフィールドを必要としますが、レコードが提供するのは4つのフィールドのみです。

フィールド1、2および4には、文字列"abc"、""、および"def"が含まれています。

""はNULLではないことに注意してください。これは、長さゼロの文字列です。他の文字列と同じ方法で処理されます。

フィールド3は、明示的にNULL列で指定されます。元のレコードの一部なので、NullColumns属性の影響を受けません。

フィールド5と6は提供されておらず、DataConnectorで作成する必要があります。

NullColumns属性を使用して、これらの新しいオペレータ作成の列を変更できます。

NullColumnsが'Y[es]'に設定されているか、デフォルトの動作が使用されている場合は、データ ファイルにレコードが含まれているかのような結果になります。

"abc"|""||"def"|||

新しく作成された列の両方がNULLです。

しかし、NullColumns = 'N[o]'を使用すると、レコードが次のように定義されているかのように動作します。

"abc"|""||"def"|""|""

新しく作成された列には空の文字列が含まれます。

どちらも元のデータ レコードの一部であったフィールド2と3は、NullColumns属性の設定に関係なく変更されません。

OpenMode = 'mode' 読み取り/書き込みアクセス モードを指定する任意の属性。

有効な値は次のとおりです。

  • 'Read' = 読み取り専用アクセス
  • 'Write' = 書き込み専用アクセス
  • 'WriteAppend' = 既存ファイルに追加する書き込み専用アクセス

OpenModeのmodeを指定しない場合、プロデューサ型インスタンスでは'Read'が、コンシューマ型インスタンスでは'Write'がデフォルトとなります。

OpenQuoteMark = " 区切りデータ内の開始引用符を定義するための任意の属性。 デフォルト値は、‘quote’です。

セッション文字セットの任意のシングルバイトまたはマルチバイトの値になります。 例: 「"」または「| |」

PrivateLogName = 'logName' Teradata PT Loggerによってパブリック ログ内部に保持されるログの名前を指定する任意の属性。 プライベート ログには、オペレータによるすべての診断トレース メッセージが含まれます。

ファイル名には、オペレータのインスタンス番号が付加されます。 インスタンス1のログ名には、"-1"が付加されます。 例えば、PrivateLogName ='DClog'の場合、インスタンス1の実際のログ名はDClog-1になります。 同様にインスタンス2はDclog-2となり、以下同様に続いていきます。

プライベート ログは、tlogviewコマンドを次のように使用すると表示できます。ここで、jobidはTeradata PTのジョブ名を、privatelognameはオペレータのPrivateLogName属性の値を示します。

   tlogview -j jobId -f privatelogname

プライベート ログを指定しない場合、出力はすべてパブリック ログに格納されます。

tlogviewコマンドの詳細については、Teradata PTユーティリティのコマンドを参照してください。

QuotedData = ‘option データを引用符で囲むかどうかを決定します。

有効な値は次のとおりです。

'Yes'または'Y' = すべての列を引用符で囲みます。

'No'または'N' = 列を引用符で囲みません(デフォルト)。

‘Optional’ = 列は任意で引用符で囲むことができます。

RecordErrorFileName = ‘filePath’ エラーレコードの送信先を指定する任意の属性。 不正な長さの個別の列または不正な列数がエラーレコードに含まれます。

この属性が定義されていない場合、最初に発生したエラー レコードは致命的なオペレータ エラーとなり、ジョブが終了します。

RecordErrorVerbosity = ‘option レコード エラー ファイルに注釈を付けられるようにする任意選択の属性です。

有効な値は次のとおりです。

  • ‘Off’ = レコード エラー ファイルに注釈は挿入されません(デフォルト)。
  • ‘Low’ = エラーの性質を説明するエラー メッセージが挿入されます。
  • ‘Med’ = エラーの性質を説明するエラー メッセージと共に、ファイル名とレコード番号が挿入されます。
  • ‘High’ = ‘Med’と同じです。
RecordsPerBuffer = count 各処理フェーズ中に各インスタンスによって処理されるレコードの数を定義する任意の属性。この属性がサポートしているオプションは、MultipleReadersのみです。この属性は、その他のシナリオとは無関係です。デフォルトは、IOBufferSizeをスレーブ リーダー インスタンスの数で割ることで算出されます。

次に、その結果をスキーマで定義されている最大レコード サイズで割ります。

スレーブ インスタンスの数は、オペレータ インスタンスの合計から1を引いた値と同じです。

例えば、10個のリーダー インスタンスが定義されていて、スキーマの長さが400バイトである場合、この値はデフォルトで1048575バイト/9インスタンス/400バイト=291レコードとなります。

RowsPerInstance = rows オペレータの各インスタンスで処理される最大レコード数を指定する任意の属性。

この数値は複数のファイルに及びます。つまり、各インスタンスで行数が制限値に達するまで、ファイルの境界を越えて処理が継続されます。 制限値に達しなかったインスタンスは正常に終了します。

   INTEGER RowsPerInstance = 1000

制限値は再始動を挟むと無効になります。つまり、再始動後は行カウントがゼロにリセットされます。

SkipRows = rows オペレータの各インスタンスでスキップされる行数を指定する任意選択の属性。

SkipRowsが複数のファイルにおよぶ、またはファイルごとに再起動するかどうかは、SkipRowsEveryFileの値により決まります。

   INTEGER SkipRows = 1000
SkipRowsEveryFile = ‘option SkipRows(上記)の動作を決める任意選択の属性。

SkipRowsEveryFileがNo(デフォルト)であると、SkipRows値は累積的に処理されます。 つまり、省略する行数が指定値に達するまで、ファイルの境界を越えて処理が継続されます。 例えば、SkipRows = 1000、SkipRowsEveryFile = 'N'、それぞれ300行からなる、処理対象ファイルが5つの場合は、ファイル1、2、および3はスキップされ、ファイル4は101行から処理が開始され、ファイル5は全体が処理されます。 失敗したジョブですでに処理された行をスキップするためにこのオプションを使用できます。

SkipRowsEveryFileがYesであると、SkipRows値により、各ファイルで先頭から処理が開始されます。 例えば、SkipRows = 5、SkipRowsEveryFile = 'Yes'、それぞれ300行からなる、処理対象ファイルが5つの場合は、各ファイルの最初の5行がスキップされ、第6行から300行が処理されます。 処理対象の各ファイルに繰り返し現われるヘッダ行をスキップするためにこのオプションを使用できます。

   VARCHAR SkipRowsEveryFile = 'Y'
TextDelimiter = 'character 区切りレコード内のフィールドを分離する文字を指定する任意の属性。 この属性への割り当てで定義できる文字数に制限はありません。

デフォルトの区切り文字は、パイプ文字( | )です。 データに区切り記号を埋め込む場合は、その区切り記号の前に円記号( \ )を付加します。

区切り文字としてタブ文字を使用する場合は、TextDelimiter = 'TAB'を指定します。 小文字の"tab"ではなく、大文字の"TAB"を使用してください。 タブ文字をデータ内に埋め込むときには、円記号が必要になります。
Timeout = seconds 入力が完了するまでシステムが待機する時間を秒単位で指定する任意の属性。
  • 有効値は1~99999秒です。
  • このオペレータのコンシューマ型インスタンスでは無効です。 この場合は、エラーとなります。
  • この属性は、接続されているすべてのアクセス モジュールに渡されます。

値を指定しない場合、システムは入力の完了を待機しません。

TraceLevel = 'level' オペレータの各インスタンスによってパブリック ログ(PrivateLogName属性で指定されている場合はプライベート ログ)に書き込まれる診断情報の種類を指定する任意の属性。

診断トレース機能によって、ログ ファイルに詳細な情報が提供されるため、問題の追跡や診断に役立ちます。トレース レベルは次のとおりです。

  • 'None' = トレース機能を無効にします(デフォルト)。 ステータス、エラーなどのメッセージをデフォルトでパブリック ログに格納します。

    PrivateLogFile属性のデフォルトは、'None'以外のTraceLevel属性が指定されている場合のみ使用されます。 'None'以外のTraceLevel属性がPrivateLog指定を使用せずに指定されている場合、DataConnectorオペレータによってプライベート ログ名が生成され、そのプライベート ログ名を含むメッセージがパブリック ログに発行されます。

    TraceLevel属性が指定されていない場合、または指定された値が'None'でPrivateLogFile属性が指定されている場合、TraceLevelは'Milestones'に設定されます。 推奨されるTraceLevel値は'None'です。この場合、ログ ファイルは生成されません。 'IO_Counts'より大きな値を指定すると、大量の診断情報が生成されます。

  • 'Milestones' = 初期化、アクセス モジュールのアタッチ/デタッチ操作、ファイルのオープンとクローズ、エラー状態などの主要イベントについてのみトレース機能を有効にします。
  • 'IO_Counts' = 主要イベントとI/Oカウントについてトレース機能を有効にします。
  • 'IO_Buffers' = 主要イベントとI/Oカウント、およびI/Oバッファについてトレース機能を有効にします。
  • 'All' = 主要イベントとI/Oカウント、バッファおよび関数エントリについてトレース機能を有効にします。

PrivateLogFile属性を使用してログ ファイルを指定する場合、TraceLevel属性を指定しないと、ログ ファイルには、以下に示す「最小限」の統計情報しか表示されません。

  • 処理するファイルの名前
  • 行送信の開始時の通知
  • 完了時の処理済み行数と消費済みCPU時間
  • DataConnectorオペレータの各インスタンスで処理された総ファイルと消費されたCPU時間
TraceLevel属性は、診断を支援するためにのみ指定します。 この属性によって得られる追加情報の量とタイプは、ニーズの変化に合わせてリリースごとに変わります。
TrimChar = ‘character’ トリムする文字を指定する任意の属性。

トリム文字の規則は次のとおりです。

  • トリム文字は1文字でなければなりませんが、シングルバイトまたはマルチバイト文字のいずれも使用できます。 これはクライアント セッション文字セットで表わされます。
  • デフォルトで、文字が指定されていない場合、トリム文字は空白(スペース)文字となります。 トリミングは引用符で囲まれていない、または引用符で囲まれたフィールド値のいずれかで実行できます。
  • フィールドに1つ以上のトリム文字のみが含まれている場合、そのフィールドはトリミング後にゼロ長のVARCHARになります。
TrimColumns = ‘option 文字を列データからトリムするかどうかを指定する任意の属性。

有効な値は次のとおりです。

  • 'None' = トリミングを行ないません(デフォルト)。
  • 'Leading' = 先頭の文字をトリムします。
  • 'Trailing' = 末尾の文字をトリムします。
  • 'Both' = 先頭と末尾の両方の文字をトリムします。
TrimColumnsおよびTruncateColumnsを有効にした場合、トリミングは切り捨ての前に行なわれます。
TruncateColumnData = ‘option’ スキーマでの定義より長い列の処理方法を決める任意の属性。

有効な値は次のとおりです。

  • 'Yes'または'Y' = 列は最大の長さに切り捨てられ、エラーが表示されずに処理されます。編集されたレコードがTeradata Databaseに送信され、元のレコードはレコード エラー ファイルに保存されます。
  • 'No'または'N' = AcceptExcessColumnsは呼び出されません(デフォルト)。
  • ‘YesWithoutLog’ = 編集された行はTeradata Databaseに送信されますが、元のレコードはレコード エラー ファイルに保存されません。
VigilElapsedTime = minutes ジョブの開始から終了までの経過時間を指定する任意の属性。

これは、VigilStartTimeからの待ち時間です。 VigilElapsedTimeとVigilStopTimeは交換可能です。

VigilStartTimeは必須ですが、時間枠定義の終了には、VigilStopTimeとVigilElapsedTimeのどちらを使用してもかまいません。

VigilElapsedTimeは分単位で表わされます。 例えば、時間枠が2時間15分の場合は次のように指定します。

VigilElapsedTime = 135
VigilMaxFiles = numberOfFiles 1回にスキャンできるファイル数の最大値を定義する任意の属性。 この値を大きくすると、より多くのTeradata PTグローバル メモリが必要となり、パフォーマンスが低下します。

numberOfFilesに指定できる値の範囲は、10~50000です。

デフォルト値は2000です。

VigilMaxFiles属性を使用するには、ArchiveDirectoryPath属性の値を指定することが必要になります。

属性の値は外部コマンド インターフェースでジョブ実行中に変更できます。 実行中にVigilMaxFilesの値を変更するためには、次のように入力します。

twbcmd  <Teradata PT job ID> <operator ID>  VigilMaxFiles  <number of files>
VigilNoticeFileName = 'noticeFileName' 監視通知フラグが書き込まれるファイル名を指定する任意の属性。 例えば、/home/user/Alert.txtファイルにレコードを書き込むように指示するためには、次のように指定します。
VigilNoticeFileName = '/home/user/Alert.txt'

ディレクトリ パスを指定しない場合、ファイルは作業ディレクトリに保存されます。

ファイル名を指定すると、通知機能が有効になります。

VigilSortField = ‘sortTime’ ディレクトリ監視スキャン ファイルを、その最終変更時間で整列できるようにする任意の属性。

sortTimeに指定できる値は次のとおりです。

  • TIME

    VigilSortField = 'TIME'を指定すると、すべてのファイルがその最終変更時間で整列されます。

  • NAME

    VigilSortField = 'NAME'を指定すると、すべてのファイルがファイル名で整列され、アルファベット順に処理されます。

  • NONE(デフォルト)

    値を'NONE'に設定すると、整列機能がオフになります。

ファイルに関連する時間が追跡されるのは直近の秒までであるため、複数のファイルでタイムスタンプが同じになる場合があります。 ファイルの変更時間に1秒以上の差がない場合は、ファイルの整列順が実際の変更順序を表わしていないこともあります。

複数のインスタンスを使用する場合、ファイルを特定の順序で処理することはできません。この属性を使用すると、Teradata PTにより、ジョブ ステップで使用できるDataConnectorオペレータのインスタンスが1つのみになります。複数のインスタンスを指定すると、ジョブが失敗します。

この属性は、バッチおよびアクティブ ディレクトリ スキャンに使用できます。

この属性は、z/OSシステムでは使用できません。
VigilStartTime = 'yyyymmdd hh:mm:ss' 監視時間枠の開始時刻を指定する任意の属性。監視時間枠とは、DirectoryPathName属性で指定されたディレクトリへの新しいファイルの到着を監視する期間です。

停止時刻は次のように表わします。

  • yyyy - 4桁の西暦(2000~3000)
  • mm - 月(1~12)
  • dd - 日(1~31)
  • hh - 時(0~23)
  • mm - 分(0~59)
  • ss - 秒(0~59)

例えば、2002年8月23日の午前9時22分56秒に開始する場合、値は次のようになります。

VigilStartTime = '20020823 09:22:56'

この属性は、VigilWaitTime属性の動作に必須です。

VigilStopTime = ‘yyyymmdd hh:mm:ss 監視時間枠の終了時刻を指定する任意の属性。監視時間枠とは、DirectoryPathName属性で指定されたディレクトリへの新しいファイルの到着を監視する期間です。

開始時刻は次のように表わします。

  • yyyy - 4桁の西暦(2000~3000)
  • mm - 月(1~12)
  • dd - 日(1~31)
  • hh - 時(0~23)
  • mm - 分(0~59)
  • ss - 秒(0~59)

例えば、2002年8月23日の午後2時に終了する場合、値は次のようになります。

VigilStopTime  = '20020823 14:00:00'
VigilWaitTime = waitSeconds 新しいファイルが見つからなかった場合にディレクトリのチェックを再び開始するまでの待ち時間を指定する任意の属性。

待ち時間が2分の場合、値は次のようになります。

VigilWaitTime = 120

デフォルトの待機時間は60秒です。このデフォルトは、VigilStartTimeが指定されている場合にのみ設定されます。

属性の値は外部コマンド インターフェースでジョブ実行中に変更できます。 実行中にVigilWaitTimeの値を変更するためには、次のとおり入力します。

twbcmd  <Teradata PT job ID> <operator ID>  VigilWaitTime  <Seconds>