DataConnectorオペレータの必須および任意の属性値を宣言するためには、Teradata PTのDEFINE OPERATOR文で属性定義リスト構文を使用します。
複数ファイルの並列処理が可能です。DirectoryPath属性で基本ディレクトリを指定し、読み取りを行なう一連のファイルの選択基準としてワイルドカードをFileName属性で指定することにより、プロデューサ型DataConnectorオペレータのインスタンスを複数使用できるようになります。
'Hadoop'で始まる属性を指定すると、DataConnectorオペレータは、ローカルのファイル システムにあるファイルやディレクトリではなく、Hadoopのファイル、ディレクトリ、およびテーブルを処理します。詳細は、Hadoopのファイルとテーブルの処理を参照してください。
構文規則:
構文要素 | 説明 |
---|---|
AcceptExcessColumns = ‘option’ | 追加列が含まれている行を受け入れ可能かどうかを指定する任意選択の属性。これは、プロデューサ オペレータ用の区切りデータにのみ適用されます。 有効な値は
この属性は、Consumerオペレータでは無視されます。 |
AcceptMissingColumns = ‘option’ | 列カウントがスキーマでの定義より少ない行の処理方法を決める任意の属性。これはProducerオペレータの区切りデータにのみ適用されます。 有効な値は
この属性は、Consumerオペレータでは無視されます。 |
AccessModuleInitStr = 'initString' | 特定のアクセス モジュールの初期化文字列を指定する任意選択の属性。この属性は、プロデューサ オペレータとConsumerオペレータの両方で使用されます。 AccessModuleInitStr属性が定義されていて、Filename属性が定義されていない場合、OpenおよびReadのリクエストは、各インスタンスのアクセス モジュールに送信されます。ただし、アクセス モジュールに渡されるファイル名は空の文字列であるため、どのファイルを開くかを(場合によっては初期化文字列から)決定するのはアクセス モジュール自体に任されています。アクセス モジュール内でOpenまたはReadのリクエストが失敗した場合、ジョブは終了します。 initString値については、<Teradata® Tools and Utilities Access Moduleリファレンス, B035-2425>の各モジュールに関する「初期化文字列」の節を参照してください。 |
AccessModuleName = 'name' | アクセス モジュール ファイルの名前を指定する任意選択の属性。nameの値は次のように決まります。 Teradata Access Module for S3
Teradata Access Module for Named Pipes
Teradata Access Module for WebSphere MQ(クライアント バージョン)
Teradata Access Module for WebSphere MQ(サーバー バージョン)
OLEDB用Teradata Access Module
Teradata Access Module for Kafka
Teradata Access Module for Azure Blob
Teradata Access Module for Google Cloud Storage (GCS)
カスタム アクセス モジュールを使用する場合は、共有ライブラリ ファイル名を使用します。 オペレータによって、使用するプラットフォームに適切な接尾辞が付加されるため、アクセス モジュール名に接尾辞は必要ありません。 アクセス モジュール名にパスが含まれていない場合、Teradata PTは以下の順番でそのファイル名を検索します。
この属性は、ProducerオペレータとConsumerオペレータの両方で使用されます。 DataConnectorオペレータは、システム パラメータが適切に設定されている場合、Windows、AIX、およびSPARCシステム版Solarisで2ギガバイトを超えるサイズのファイルをサポートするようになったため、ラージ ファイル アクセス モジュールは使用不可になりました。
|
AppendDelimiter = ‘option’ | 書き込まれたすべてのレコードの最後に区切り記号を追加する任意の属性。区切られた出力ファイルをConsumerオペレータで作成するときは、AppendDelimiterを使用します。 レコードの最後の列がNULLの場合、区切り文字はその列がNULLであることを示します。 有効な値は次のとおりです。
この属性は、Producerオペレータには無効です。 |
ArchiveDirectoryPath = ‘pathName’ | プロデューサ オペレータの現在のディレクトリ(DirectoryPath属性で指定されている)から、処理されたすべてのファイルが移される移動先ディレクトリの完全パス名を指定します。 VigilMaxFiles属性の値を指定する場合は、この属性が必須です。 この属性は、Consumerオペレータでは無視されます。 |
ArchiveFatal = ‘option’ | Producerオペレータのアーカイブ(ファイルの移動)に失敗した場合の処置を定義します。 有効な値は次のとおりです。
この属性は、Consumerオペレータでは無視されます。 |
CloseQuoteMark = 'character(s)' | 区切り記号付きデータ内の終了引用符の文字シーケンスを定義します。 セッション文字セットにあるシングルバイトまたはマルチバイトの任意の値を指定できます(例:「"」または「| |」)。 デフォルト値は、属性OpenQuoteMarkに指定されたシーケンスです。 この属性は、ProducerオペレータとConsumerオペレータの両方で使用されます。 |
DirectoryPath = 'pathName' | この任意の属性は、(Producerオペレータによる)読み取り用のソース ファイルまたは(Consumerオペレータによる)書き込み用のターゲット ファイルの場所を定義します。 FileName属性によって指定されたファイルの場所(またはPDSメンバー)に対して既存の基本ディレクトリ パス(またはz/OS PDSデータセット名)を指定する場合は、この属性を使用します。 z/OSデータセット(DD:DATA)がFileName属性で指定されている場合は、この属性を使用できません。 JCL DD文を持つz/OS PDSデータセットを指定するには、次の例に示すように、DirectoryPath属性値に接頭辞「DD:」を付けます。 DirectoryPath='DD:<ddname>' z/OS PDSデータ セットを直接指定するには、以下の構文を使用します。 DirectoryPath=’//’’dataset-name’’’ この属性のデフォルトは、ジョブが実行されているディレクトリ(DEFINE JOB文で指定されたジョブ作業ディレクトリ)に設定されています。 DataConnectorがプロデューサ インスタンスである場合、FileName属性の値にディレクトリ名が含まれていなければ、このDirectoryPath指定がファイル名の先頭に付加されます。FileName属性の値にディレクトリが含まれている場合、このDirectoryPath属性は空であることになっています。 |
EnableScan = ‘mode’ | Producerオペレータでアクセス モジュールを使用している場合、ディレクトリ スキャン ロジックを無視する任意の属性。 有効な値は次のとおりです。
FileName属性でワイルドカード文字が指定されているにもかかわらず、この属性を'No'に設定すると、DataConnectorログに警告メッセージが生成されます。 この属性は、Consumerオペレータには無効です。 |
ErrorLimit =errorLimit | errorLimit = (0 - 2147483647) 0 = デフォルト(無制限) DataConnector Producerオペレータ ジョブを終了するまでにエラー行ファイルに格納できるレコードの概数を指定する任意の属性。ErrorLimitを指定しないと、ErrorLimitの値が0の場合と同じです。ErrorLimitの指定は、DataConnector Producerオペレータの各インスタンスに適用されます。 「RecordErrorFileName」属性が定義されている場合(従来「RowErrFileName」と呼ばれていたもの)、エラー レコードは指定したファイルに保存され、ジョブは致命的なエラーで終了することなく追加のレコードを処理し続けます。 この属性は、Consumerオペレータでは無視されます。 ErrorLimit属性の影響については、<Teradata® Parallel Transporterユーザー ガイド, B035-2445>を参照してください。 サポートされていてもマニュアルに記載されなくなった廃止された構文の一覧については、非推奨の構文を参照してください。
|
EscapeQuoteDelimiter = 'character(s)' | 区切りデータ内でエスケープ引用符文字シーケンスを定義できるオプションの属性。既定値は、CloseQuoteMark 属性に指定されたシーケンスです。引用符で囲まれた区切りデータの処理の規則を参照してください。 区切り形式でデータを処理する際に、OpenQuoteMarkまたはCloseQuoteMarkの前にEscapeQuoteDelimiterがある場合には、引用符(開始または終了のどちらか)のそのインスタンスは引用符で囲まれた文字列の開始または終了を表わすマークではなくデータ内に組み込まれます。 この属性は、ProducerオペレータとConsumerオペレータの両方で使用されます。 |
EscapeRecordDelimiter = 'character(s)' | 引用符で囲まれていない区切りデータ内で、レコードの区切り文字のエスケープ シーケンスを定義できる任意の属性。 区切り形式でデータを処理する際に、レコード終了(EOR)マーカーの前にEscapeRecordDelimiterによって定義されているエスケープ シーケンスがある場合には、エスケープ シーケンスが削除され、EORのインスタンスは、レコードの終了を表わすマークではなくデータ内に組み込まれます。EscapeRecordDelimiterで定義されたエスケープ シーケンスの直後にEORがない場合、エスケープ シーケンスは通常のデータとして扱われます。 その他の詳細:
|
EscapeTextDelimiter = 'character(s)' | 区切りデータ内の区切り文字のエスケープ文字シーケンスを定義するための任意の属性。 区切り形式でデータを処理する際に、区切り文字の前にEscapeTextDelimiterによって定義されているエスケープ シーケンスがある場合には、区切り文字のそのインスタンスは列の終わりを表わすマークではなくデータ内に組み込まれます。EscapeTextDelimiterで定義されたエスケープ シーケンスの直後に区切り記号文字がない場合、データは通常とみなされ、それ以上の処理は行なわれません。 例えば、デフォルトの区切り文字がパイプ( | )で、EscapeTextDelimiterが円記号の場合に、列にabc\|def|というデータが入力されたとすると、そのデータはabc|defとしてロードされます。 その他の詳細:
|
FileList = 'option' | FileName属性とともに使用する任意の属性。 有効な値は次のとおりです。
DataConnectorオペレータは、ネットワークに接続されたプラットフォーム上のASCIIでエンコードされたFileListファイルのみをサポートします。
|
FileName = 'fileName' | 処理対象のファイル名を指定する必須の属性。Producerオペレータの場合、このファイルはソース データを読み取る場所を定義します。Consumerオペレータの場合は、ターゲット データを書き込む場所を定義します。 場合によっては、AccessModuleName属性を使用して指定したアクセス モジュールでファイル名が使用または認識されないことがあります。そのため、FileName属性の値の指定が必須ではないことがあります。 例えば、Teradata Access Module for IBM Websphere MQでは、ファイル名の指定が必須ではありません。 FileList属性とともに使用すると、fileNameは、処理対象のファイル名(それぞれフルパスで指定)のリストが含まれることが想定されます。 この場合、ワイルドカード文字は、FileName属性自体とそこに含まれるファイル名にも使用できません。 オペレータの複数インスタンスを使用すると、ファイルのリストを同時に処理できます。 FileList = ’No’の場合、fileNameのワイルドカード文字は、Producerオペレータによってディレクトリ スキャンが行なわれます。ただし、Windowsプラットフォームの場合、'filename'オペレータ属性でワイルドカード文字(*)を使用すると、必要以上のファイルが誤って含まれる場合があります。例えば、*.datを指定すると、フォルダのディレクトリ スキャンは*.dat*と指定したかのようにファイルを検索します。例えば、拡張子.data、.date、および.dat071503を持つファイルも検索されます。このため、まずフォルダから無関係なファイルを削除することが必要な場合があります。 GZIP圧縮ファイルの読み取りと書き込みは、すべてのz/OSプラットフォームでサポートされています。このサポートはファイルの拡張子に基づいて自動的に有効になります。gzipファイルの標準ファイル名拡張子は"*.gz"です。 Zip圧縮ファイルの読み取りと書き込みは、WindowsおよびUnixでサポートされますが、 IBM z/OSではサポートされません。このサポートはファイルの拡張子に基づいて自動的に有効になります。zipファイルの標準ファイル名拡張子は"*.zip"です。 ZIP形式で読み取りと書き込みがサポートされるのは、単一ファイルのみです。 Hadoop/HDFSを使用する場合、GZIPおよびZIPファイルの読み取りと書き込みはサポートされません。 追加のz/OSデータセット構文については、有効なFileName構文表を参照してください。 |
FileSizeMax = 'fileSizeMax' | Consumerインスタンスに対してのみ有効な任意の属性。出力ファイルの最大ファイル サイズ(バイト単位)で定義します。ファイルがこのサイズに達すると、DataConnectorはファイルを閉じ、元のユーザー定義ファイル名および追加されたインスタンス番号とファイル番号を使用して、新しい出力ファイルへのレコードの書き込みを続行します。 この属性の有効な値は次のようになります。
出力ファイルの命名は、FileName設定、インスタンス番号、およびそのインスタンスに対してすでに開かれているファイルの数に基づきます。特定の命名構文は、FileName設定から取得した基本ファイル名の後にハイフン('-')が続き、その後にオペレータ インスタンス番号、別のハイフン、その後に数値(ファイル番号)が続き、その後にFileName設定から取得したファイル拡張子(存在する場合)となります。例えば、DataConnectorの3つのインスタンスが実行中で、FileName=' abcd.txt'の場合、次の9つのファイルが作成されます。
この命名規則は、オペレータ インスタンスを1つしか使用しない場合や、サイズ制限に達することがない場合であっても、FileSizeMax属性が定義されるときには必ず使用されます。 個々のレコードは複数のファイルに及ばないので、最大限度に達したファイルの最終的なサイズは、FileSizeMaxの値よりもわずかに小さくなります。 DataConnector Consumerオペレータは、各ファイルにレコードを少なくとも1つ書き込める必要があります。したがって、ファイルにレコードが1つ含まれ、そのレコードがFileSizeMaxの制限を超えた場合にのみ、ファイルがFileSizeMaxの値を超える可能性があります。 複数のインスタンスを使用する場合、一部のインスタンスがその他のインスタンスよりも多くのレコードを処理する場合があります。これは、単純にデータ ストリームからより多くのデータを処理しているためです。各インスタンスのファイル間でレコードをより均等に配分するには、tbuildの-Cコマンドライン オプションを使用します。 FileSizeMax属性は、次の場合にはサポートされません。
デフォルト値(0)は、ファイル サイズの制限が適用されないことを示します。 |
Format = 'format' | データの論理レコード形式を指定する必須の属性。この属性は、ProducerオペレータとConsumerオペレータの両方で使用されます。システム デフォルトはありません。 Formatで使用できる値は次のとおりです。
|
HadoopBlockSize= (x * 1K bytes) | ブロック/バッファのサイズを指定する任意の属性で、Hadoop/HDFSファイルに書き込むときに1K単位で増加します。 HadoopBlockSize値は、1からx 1Kバイトのどこか(xは任意)で定義することができます。 Hadoop/HDFSクラスタの典型的なデフォルトのブロック サイズは64MBで、これはTPTも使用するものです(65536 * 1024 = 64MB)。 この属性を使用してデフォルトを変更する前に、システム管理者に確認してください。 この値はメモリの消費に影響する(実行時に割り当てられる内部バッファのサイズが2倍になる)ため、むやみに変更すべきではありません。 有効な値は次のとおりです。
デフォルト値 = 65536。
|
HadoopFileFormat= 'hadoopFileFormat' | TDCHジョブが処理すべきファイルの形式を指定する任意の属性。DataConnectorのHadoopインターフェース、およびサポートされている値やデフォルト値の<Teradata Connector for Hadoop tutorial>の詳細については、Hadoopのファイルとテーブルの処理を参照してください。 |
HadoopHost= 'hadoopHostName' | Hadoopクラスタのネームノードのホスト名またはIPアドレスを指定する任意選択の属性。 TDCHジョブを起動するとき、この値は、TPTジョブを実行しているHadoopクラスタにあるノードのホスト名またはIPアドレスである必要があります。 ホスト名およびIPアドレスは、Hadoopクラスタにあるすべてのデータノードから到達可能である必要があります。 DataConnectorのHadoopインターフェースの詳細については、 Hadoopのファイルとテーブルの処理を参照してください。. HDFS APIジョブを起動するとき、この値は、HDFS操作を実行するクラスタを示し、以下のように設定できます。
|
HadoopJobType= 'hadoopJobType' | 起動するTDCHジョブの種類を指定する任意の属性。DataConnectorのHadoopインターフェース、およびサポートされている値やデフォルト値の<Teradata Connector for Hadoop tutorial>の詳細については、Hadoopのファイルとテーブルの処理を参照してください。 |
HadoopNumMappers= 'hadoopNumMappers' | TDCHが起動するmapperの数を指定する任意の属性。DataConnectorのHadoopインターフェース、およびサポートされている値やデフォルト値の<Teradata Connector for Hadoop tutorial>の詳細については、Hadoopのファイルとテーブルの処理を参照してください。 |
HadoopProperties = 'hadoopProperties' | Hadoop コマンドを実行依頼するときに TPT が使用する 1 つ以上の Hadoop プロパティとその値を指定するオプションの属性。 DataConnectorのHadoopインターフェースおよびTeradata Connector for Hadoop tutorialでサポートされている値とデフォルト値の詳細については、Hadoopのファイルとテーブルの処理を参照してください。 |
HadoopSeparator= 'hadoopSeparator' | TDCHジョブによって処理されるファイル内のフィールドを区切る文字を指定する任意選択の属性。この属性は、'HadoopFileFormat'属性がデフォルト値である'textfile'に設定されている場合にのみ有効です。DataConnectorのHadoopインターフェース、およびサポートされている値とデフォルト値の<Teradata Connector for Hadoop tutorial>の詳細については、Hadoopのファイルとテーブルの処理を参照してください。 |
HadoopSourceDatabase='hadoopSourceDatabase' | データのエクスポート元である、HiveまたはHcatalog上のソース データベースの名前を指定する任意の属性。DataConnectorのHadoopインターフェース、およびサポートされている値やデフォルト値の<Teradata Connector for Hadoop tutorial>の詳細については、Hadoopのファイルとテーブルの処理を参照してください。 |
HadoopSourceFieldNames = 'hadoopSourceFieldNames' | ソースHDFSファイルから、またはソースHiveおよびHCatalogテーブルからエクスポートするフィールドの名前を、カンマ区切り形式で指定する任意の属性。DataConnectorのHadoopインターフェース、およびサポートされている値やデフォルト値の<Teradata Connector for Hadoop tutorial>の詳細については、Hadoopのファイルとテーブルの処理を参照してください。 |
HadoopSourcePartitionSchema= 'hadoopSourcePartitionSchema' | Hiveにあるソース テーブルの完全パーティション スキーマを、カンマ区切り形式で指定する任意の属性。この属性は、'HadoopJobType'が'hive'に設定されている場合にのみ有効です。DataConnectorのHadoopインターフェース、およびサポートされている値やデフォルト値の<Teradata Connector for Hadoop tutorial>の詳細については、Hadoopのファイルとテーブルの処理を参照してください。 |
HadoopSourcePaths= 'hadoopSourcePaths' | HDFS上の、エクスポートされるソース ファイルのディレクトリを指定する任意の属性。この属性は、'HadoopJobType'が'hdfs'に設定されている場合に必須で、'HadoopJobType'が'hive'に設定されている場合は任意、また'HadoopJobType'が'hcat'に設定されている場合は無効です。DataConnectorのHadoopインターフェース、およびサポートされている値やデフォルト値の<Teradata Connector for Hadoop tutorial>の詳細については、Hadoopのファイルとテーブルの処理を参照してください。 |
HadoopSourceTable = 'hadoopSourceTable' | データのエクスポート元である、HiveまたはHcatalog上のソース テーブルの名前を指定する任意の属性。 この属性は、'HadoopJobType'が'hcat'に設定されている場合に必須で、'HadoopJobType'が'hive'に設定されている場合は任意、また'HadoopJobType'が'hdfs'に設定されている場合は無効です。 DataConnectorのHadoopインターフェース、およびサポートされている値やデフォルト値のHadoopのTeradataコネクタチュートリアルの詳細については、Hadoopのファイルとテーブルの処理を参照してください。 |
HadoopSourceTableSchema= 'hadoopSourceTableSchema' | HiveまたはHcatalogにあるソース テーブルの完全列スキーマをカンマ区切り形式で指定する任意選択の属性。DataConnectorのHadoopインターフェース、およびサポートされている値とデフォルト値の<Teradata Connector for Hadoop tutorial>の詳細については、Hadoopのファイルとテーブルの処理を参照してください。 |
HadoopTargetDatabase= 'hadoopTargetDatabase' | データのインポート先である、HiveまたはHcatalog上のターゲット データベースの名前を指定する任意の属性。これは、「hive」や「hcat」ジョブの場合に任意で、「hdfs」ジョブの場合は無効です。DataConnectorのHadoopインターフェース、およびサポートされている値やデフォルト値の<Teradata Connector for Hadoop tutorial>の詳細については、Hadoopのファイルとテーブルの処理を参照してください。 |
HadoopTargetFieldNames = 'hadoopTargetFieldNames' | HDFS上のターゲット ファイル、またはターゲットHiveおよびHCatalogテーブルに書き込むフィールドの名前を、カンマ区切り形式で指定する任意の属性。DataConnectorのHadoopインターフェース、およびサポートされている値やデフォルト値の<Teradata Connector for Hadoop tutorial>の詳細については、Hadoopのファイルとテーブルの処理を参照してください。 |
HadoopTargetPartitionSchema= 'hadoopTargetPartitionSchema' | HDFS上のターゲット ファイル、またはターゲットHiveおよびHCatalogテーブルに書き込むフィールドの名前を、カンマ区切り形式で指定する任意の属性。DataConnectorのHadoopインターフェース、およびサポートされている値やデフォルト値の<Teradata Connector for Hadoop tutorial>の詳細については、Hadoopのファイルとテーブルの処理を参照してください。 |
HadoopTargetPaths= 'hadoopTargetPaths' | HDFS上の、インポートされるソース ファイルのディレクトリを指定する任意の属性。この属性は、'HadoopJobType'が'hdfs'に設定されている場合に必須で、'HadoopJobType'が'hive'に設定されている場合は任意、また'HadoopJobType'が'hcat'に設定されている場合は無効です。DataConnectorのHadoopインターフェース、およびサポートされている値やデフォルト値の<Teradata Connector for Hadoop tutorial>の詳細については、Hadoopのファイルとテーブルの処理を参照してください。 |
HadoopTargetTable= 'hadoopTargetTable' | データがインポートされる、HiveまたはHcatalog上のターゲット テーブルの名前を指定する任意の属性。この属性は、'HadoopJobType'が'hcat'に設定されている場合に必須で、'HadoopJobType'が'hive'に設定されている場合は任意、また'HadoopJobType'が'hdfs'に設定されている場合は無効です。DataConnectorのHadoopインターフェース、およびサポートされている値やデフォルト値の<Teradata Connector for Hadoop tutorial>の詳細については、Hadoopのファイルとテーブルの処理を参照してください。 |
HadoopTargetTableSchema= 'hadoopTargetTableSchema' | HiveまたはHcatalogにあるターゲット テーブルの完全な列スキーマをカンマ区切り形式で指定する任意選択の属性。DataConnectorのHadoopインターフェース、およびサポートされている値とデフォルト値の<Teradata Connector for Hadoop tutorial>の詳細については、Hadoopのファイルとテーブルの処理を参照してください。 |
HadoopUser= 'hadoopUser' | HDFSAPIインターフェース経由でファイルの読み取りおよび書き込みを行なう場合に利用するHadoopユーザーの名前を指定する任意の属性。 この属性が指定されていない場合は、その時点でTPT HDFSジョブを実行しているログイン ユーザー名が使用されます。 DataConnectorのHadoopインターフェースの詳細については、Hadoopのファイルとテーブルの処理を参照してください。 |
IndicatorMode = 'mode' | 各レコードの先頭に標識バイトを組み込むかどうかを指定する任意の属性。この属性は、ProducerオペレータとConsumerオペレータの両方で使用されます。 有効な値は次のとおりです。
|
LobDirectoryPath = 'pathName' | この任意選択の属性では、プロデューサ オペレータが一時LOBファイルを格納する既存の場所を指定します。このディレクトリは、インラインLOBすべてが単一のリクエスト メッセージに収まらないために、DataConnectorが遅延モードでインラインLOBを転送する必要がある場合にのみ使用されます。一時LOBファイルの作成と削除はTeradata PTが自動的に処理するので、ユーザーは場所を指定するだけで済みます。 pathNameが指定されていない場合は、現在の作業ディレクトリが使用されます。 この属性は、コンシューマ オペレータに対しては無効であり、z/OSプラットフォームでは無効です。 |
MultipleReaders = 'option' | 任意選択の属性で、'Yes'が設定されると、DataConnector Producerオペレータに対して、複数のインスタンスが単一のファイルから同時に読み取りできるように指示します。 有効な値は次のとおりです。
この属性は、Consumerオペレータには無効です。 ジョブのスキーマに1つまたは複数のインラインLOB列があり、スキーマの合計サイズが1,024,000バイトを超えている場合、MultipleReadersは無効になります。警告メッセージが表示され、ジョブは続行されます。
|
NamedPipeTimeOut = seconds | Producerオペレータによる名前付きパイプ(FIFO)のチェックを可能にする任意の属性。secondsが正の数に設定されている場合、データが利用可能になるまで、または指定した時間が経過してジョブが終了するまで、DataConnector Producerオペレータはパイプのデータを毎秒チェックします。属性が指定されていない場合、パイプのチェックは行なわれません。これによりパフォーマンスが向上しますが、読み込み時にパイプ内でデータが利用できない場合は、ハング ジョブになる可能性もあります。 この属性はパイプを直接読み取るためにDataConnector Producerオペレータを使用するジョブ専用です。Named Pipe Access Module(NPAM)がパイプI/Oを実行するときには使用されません。 この属性は、Consumerオペレータには無効です。 |
NotifyExit = 'inmodName' | _dynamnという名前のエントリ ポイントを持つユーザー定義の通知出口ルーチンの名前を指定する任意の属性。値を指定しない場合、次のデフォルト名が使用されます。
NotifyMethodは‘Exit’に設定する必要があります。 この属性は、ProducerオペレータとConsumerオペレータの両方で有効です。 独自の通知出口ルーチンを指定する方法については、非推奨の構文を参照してください。 |
NotifyLevel = ' notifyLevel ' | 特定のイベントをレポートするレベルを指定する任意の属性。 発生する可能性のあるイベントの詳細DataConnectorオペレータのイベントと各イベントの通知レベルを参照してください。有効な値は
この属性は、ProducerオペレータとConsumerオペレータの両方で有効です。 |
NotifyMethod = 'notifyMethod | イベントをレポートするためのメソッドを指定する任意の属性。メソッド:
この属性は、ProducerオペレータとConsumerオペレータの両方で有効です。 |
NotifyString = 'notifyString' | システム ログに送られるすべてのメッセージの先頭に付加するユーザー定義文字列を指定する任意の属性。 この文字列は、ユーザー定義の通知出口ルーチンにも送られます。 文字列の最大長は次のとおりです。
この属性は、ProducerオペレータとConsumerオペレータの両方で有効です。 |
NullColumns = ‘option’ | 見つからない列の処理方法を決める任意の属性。これはProducerオペレータの区切りデータにのみ適用されます。 この属性を利用するには、AcceptMissingColumnsは'Y[es]'または'Y[eswithoutlog]'でなければなりません。また、QuotedDataは'Y[es]'または'O[ptional]'でなければなりません。 有効な値は次のとおりです。
以下の例では、区切り記号文字はデフォルトの|文字。QuotedDataは有効で、AcceptMissingColumnsは'Y'です。スキーマの例は次のとおりです。 ... (VARCHAR(5), VARCHAR(5), VARCHAR(5), VARCHAR(5), VARCHAR(5), VARCHAR(5)) ... 最初のサンプル データ レコードは次のとおりです。 "abc"|""||"def" スキーマは6つのフィールドを必要としますが、レコードが提供するのは4つのフィールドのみです。 フィールド1、2および4には、文字列"abc"、""、および"def"が含まれています。 ""はNULLではないことに注意してください。これは、長さゼロの文字列です。他の文字列と同じ方法で処理されます。 フィールド3は、明示的にNULL列で指定されます。元のレコードの一部なので、NullColumns属性の影響を受けません。 フィールド5と6は提供されておらず、DataConnector Producerオペレータで作成する必要があります。 NullColumnsが'Y[es]'に設定されているか、デフォルトの動作が使用されている場合は、データ ファイルにレコードが含まれているかのような結果になります。 "abc"|""||"def"||| 新しく作成された列の両方がNULLです。 しかし、NullColumns = 'N[o]'を使用すると、レコードが次のように定義されているかのように動作します。 "abc"|""||"def"|""|"" 新しく作成された列には空の文字列が含まれます。 どちらも元のデータ レコードの一部であったフィールド2と3は、NullColumns属性の設定に関係なく変更されません。 この属性は、Consumerオペレータでは無視されます。 |
OpenMode = 'mode' | 読み取り/書き込みアクセス モードを指定する任意の属性。 有効な値は次のとおりです。
OpenModeのmodeを指定しない場合、Producerオペレータでは'Read'が、Consumerオペレータでは'Write'がデフォルトとなります。 |
OpenQuoteMark = 'character(s)' | 区切りデータ内の開始引用符の文字シーケンスを定義する任意選択の属性。デフォルト値は二重引用符「"」です。 セッション文字セットの任意のシングルバイトまたはマルチバイトの値になります。例: 「"」または「||」 Producerオペレータの場合、QuotedDataを‘Yes’または‘Optional’に設定する必要があります。Consumerオペレータの場合は、QuotedDataを‘Yes’に設定する必要があります。 |
PrivateLogName = 'logName' | Teradata PT Loggerによってパブリック ログ内部に保持されるログの名前を指定する任意の属性。プライベート ログには、オペレータによってTraceLevel属性を使用して生成されたすべての診断トレース メッセージが含まれます。 logNameの値には、ハイフンとインスタンス番号が付加されます。例えば、PrivateLogName = 'DClog'の場合、インスタンス1の実際のログ名はDClog-1になります。同様にインスタンス2はDClog-2となり、以下同様に続いていきます。 プライベート ログは、tlogviewコマンドを次のように使用すると表示できます。ここで、jobIdはTeradata PTのジョブ名を、privatelognameは、オペレータのPrivateLogName属性の値(ハイフンとインスタンス番号を含む)を示します。 tlogview -j jobId -f privatelogname プライベート ログを指定しない場合、出力はすべてパブリック ログに格納されます。 tlogviewコマンドの詳細については、Teradata PTユーティリティのコマンドを参照してください。 この属性は、ProducerオペレータとConsumerオペレータの両方で有効です。 |
QuotedData = ‘option’ | 区切りデータを引用符で囲むかどうかを決定する任意の属性。 有効な値は次のとおりです。
|
RecordErrorFileName = ‘filePath’ | 区切りデータ ファイルの読み取り時にエラー レコードを格納する場所を指定する任意の属性。エラー レコードには、列の数が間違っているものと、列の長さが無効なもののいずれかが含まれます。これはProducerオペレータにのみ適用されます。 ErrorLimit属性は、このファイルに書き込むことができるエラー レコードの数を指定します。 この属性が定義されていない場合、最初に発生したエラー レコードは致命的なオペレータ エラーとなり、ジョブが終了します。 この属性は、Consumerオペレータでは無視されます。 |
RecordErrorVerbosity = ‘option’ | RecordErrorFileName属性が設定されている場合に、レコード エラー ファイルに注釈を付けられるようにする任意の属性。これはProducerオペレータにのみ適用されます。 有効な値は次のとおりです。
この属性は、Consumerオペレータでは無視されます。 |
RecordsPerBuffer = count | MultipleReaders = 'Yes'の場合の各処理フェーズ中に、Producerオペレータの各インスタンスによって処理されるレコードの数を定義する任意の属性。有効な値は1~999999です。 デフォルト値は、バッファ サイズ(1048575)をワーカー リーダー インスタンスの数で割ることで算出されます。 次に、その結果をスキーマで定義されている最大レコード サイズで割ります。 ワーカー インスタンスの数は、オペレータ インスタンスの合計数から1を引いた値です。 例えば、10個のリーダー インスタンスが定義されていて、スキーマの長さが400バイトである場合、この値はデフォルトで1048575バイト/9インスタンス/400バイト=291レコードとなります。 この属性は、Consumerオペレータでは無視されます。 |
RowsPerInstance = rows | Producerオペレータの各インスタンスで処理される最大レコード数を指定する任意の属性。 この数値は複数のファイルに及びます。つまり、各インスタンスで行数が制限値に達するまで、ファイルの境界を越えて処理が継続されます。特定のインスタンスで行数が制限値に達すると、そのインスタンスは完了します。行の制限値に達しなかった特定のインスタンスは正常に終了します。 制限値は再始動を挟むと無効になります。つまり、再始動後は行カウントがゼロにリセットされます。 この属性は、Consumerオペレータでは無視されます。 |
SingleRecordWriting = ‘option’ | Access Moduleで、複数のレコードを含むことができるバッファを受け取る代わりに、書き込み操作ごとにレコードを1つ受け取ることができる任意の属性。このオプションは、有効なAccessModuleNameエントリを持つConsumerインスタンスにのみ適用されます。 有効な値は次のとおりです。
この属性は、Producerオペレータでは無視されます。 |
SkipRows = rows | Producerオペレータの各インスタンスでスキップされる行数を指定する任意の属性。 SkipRowsEveryFile属性によって、SkipRowsが複数のファイルに及んで再起動するかどうかが決まります。 この属性は、Consumerオペレータには無効です。 |
SkipRowsEveryFile = ‘option’ | SkipRows(上記)の動作を制御する任意の属性。これはProducerオペレータにのみ適用されます。 有効な値は次のとおりです。
この属性は、Consumerオペレータでは無視されます。 |
TextDelimiter = 'character’ | 区切りレコード内のフィールドを分離するバイト数を指定する任意の属性。セッション文字セットから任意の数のシングルバイト文字またはマルチバイト文字を定義できます。この属性は、Format = ’Delimited’の場合にのみ有効です。 デフォルトの区切り記号の値はパイプ文字( | )です。 TextDelimiterバイト シーケンスは、EscapeTextDelimiter属性で定義されているエスケープ シーケンスが前にある場合、データとして扱うことができます。 タブ文字を区切り文字として使用するには、TextDelimiter = 'TAB'を指定します。小文字の“tab”ではなく、大文字の“TAB”を使用します。
この属性は、ProducerオペレータとConsumerオペレータの両方で使用されます。 |
Timeout = seconds | Producerオペレータによる入力が完了するまでシステムが待機する時間を秒単位で指定する任意の属性。指定された値は、Producerオペレータに接続されているすべてのアクセス モジュールに渡されます。 有効値は1~99999秒です。 デフォルトは0(タイムアウトなし)です。 この属性は、Consumerオペレータには無効です。 |
TraceLevel = 'level' | オペレータの各インスタンスによってパブリック ログ(PrivateLogName属性で指定されている場合はプライベート ログ)に書き込まれる診断情報の種類を指定する任意の属性。 診断トレース機能によって、ログ ファイルに詳細な情報が提供されるため、問題の追跡や診断に役立ちます。トレース レベルは次のとおりです。
PrivateLogFile属性を使用してログ ファイルを指定する場合、TraceLevel属性を指定しないと、ログ ファイルには、以下に示す「最小限」の統計情報しか表示されません。
TraceLevel属性は、診断を支援するためにのみ指定します。この属性によって得られる追加情報の量とタイプは、ニーズの変化に合わせてリリースごとに変わります。これはパフォーマンスとディスク使用量に影響する可能性があるので、注意して使用する必要があります。
この属性は、ProducerオペレータとConsumerオペレータの両方で有効です。 |
TrimChar = ‘character’ | Producerオペレータによって区切られた列データからトリムされる文字を指定する任意の属性。TrimColumns属性と組み合わせて使用します。 トリム文字の規則は次のとおりです。
例えば、TextDelimiter = '|'、TrimChar = ‘a’、およびTrimColumns = ‘Both’の場合に、次の区切りレコードがあるとします。 a1|2aa|aaa|aaaa4aaaa これは次のように処理されます。 1|2||4 この属性は、Consumerオペレータでは無視されます。 |
TrimColumns = ‘option’ | Producerオペレータによって区切られた列データから文字をトリムする方法を指定する任意の属性。TrimChar属性と組み合わせて使用します。 有効な値は次のとおりです。
TrimColumnsおよびTruncateColumnDataを有効にした場合、トリミングは切り捨ての前に行なわれます。
この属性は、Consumerオペレータには無効です。 |
TruncateColumnData = ‘option’ | スキーマでの定義より長い列の処理方法を決める任意の属性。これはProducerオペレータの区切りデータにのみ適用されます。 有効な値は次のとおりです。
この属性は、Consumerオペレータでは無視されます。 |
VigilElapsedTime = minutes | Producerオペレータによるアクティブ ディレクトリ スキャンについて、ジョブの開始から終了までの経過時間を指定する任意の属性。 これはVigilStartTimeからの待ち時間であり、DirectoryPath属性で指定されたディレクトリへの新しいファイルの到着が監視されます。VigilStartTime属性が設定されていない場合は、システムの現在時刻が開始時刻として使用されます。VigilElapsedTimeは分単位で表わされます。例えば、時間枠が2時間15分の場合は次のように指定します。 VigilElapsedTime = 135 VigilElapsedTimeとVigilStopTimeは交換可能ですが、相互に排他的です。VigilElapsedTimeのデフォルト値はありません。また、ArchiveDirectoryPathも設定する必要があります。 この属性は、Consumerオペレータには無効です。 |
VigilMaxFiles = numberOfFiles | アクティブ ディレクトリ スキャンについて、Producerオペレータで1回にスキャンできるファイル数の最大値を定義する任意の属性。 この値を大きくすると、より多くのTeradata PTグローバル メモリが必要となり、パフォーマンスが低下する可能性があります。 numberOfFilesに指定できる値の範囲は、10~50000です。デフォルト値は2000です。 VigilMaxFiles属性を使用するには、ArchiveDirectoryPath属性の値を、VigilStartTimeとVigilStopTime(またはVigilElapsedTime)とともに指定する必要があります。 属性の値は外部コマンド インターフェースでジョブ実行中に変更できます。 実行中にVigilMaxFilesの値を変更するためには、次のように入力します。 twbcmd <Teradata PT job ID> <operator ID> VigilMaxFiles=<number of files> この属性は、Consumerオペレータでは無視されます。 |
VigilNoticeFileName = 'noticeFileName' | アクティブ ディレクトリ スキャンについて、Producerオペレータによって監視通知フラグが書き込まれるファイルの名前を指定する任意の属性。 例えば、/home/user/Alert.txtファイルにレコードを書き込むように指示するためには、次のように指定します。 VigilNoticeFileName = '/home/user/Alert.txt' ディレクトリ パスを指定しない場合、ファイルは現在の作業ディレクトリに保存されます。 ファイル名を指定すると、この通知機能が有効になります。 ArchiveDirectoryPath属性の値を、VigilStartTimeとVigilStopTime(またはVigilElapsedTime)とともに指定する必要があります。 この属性は、Consumerオペレータでは無視されます。 |
VigilSortField = ‘sortTime’ | アクティブ ディレクトリ スキャンについて、Producerオペレータによってファイルを特定の順序で整列できるようにする任意の属性。 有効な値は次のとおりです。
ファイルに関連する時間が追跡されるのは直近の秒までであるため、複数のファイルでタイムスタンプが同じになる場合があります。 ファイルの変更時間に1秒以上の差がない場合は、ファイルの整列順が実際の変更順序を表わしていないこともあります。 複数のインスタンスを使用する場合、ファイルを特定の順序で処理することはできません。この属性を使用すると、Teradata PTにより、ジョブ ステップで使用できるDataConnector Producerオペレータのインスタンスが1つのみになります。複数のインスタンスを指定すると、ジョブが失敗します。 ArchiveDirectoryPath属性の値を、VigilStartTimeとVigilStopTime(またはVigilElapsedTime)とともに指定する必要があります。 この属性は、Consumerオペレータには無効です。 この属性は、z/OSシステムでは使用できません。
|
VigilStartTime = 'yyyymmdd hh:mm:ss' | Producerオペレータによって、アクティブ ディレクトリ スキャンの監視時間枠の開始時刻を指定する任意の属性。DirectoryPath属性で指定されたディレクトリへの新しいファイルの到着を監視する期間を定義できます。 開始時刻は次のように表わします。
例えば、2019年8月23日の午前9時22分56秒に開始する場合は次のようになります。 VigilStartTime = '20190823 09:22:56' この属性は、VigilWaitTime属性の動作に必須です。 VigilStartTimeのデフォルト値はありません。また、ArchiveDirectoryPathも、VigilStopTimeまたはVigilElapsedTimeのいずれかとともに設定する必要があります。 この属性は、Consumerオペレータには無効です。 |
VigilStopTime = ‘yyyymmdd hh:mm:ss’ | Producerオペレータによって、アクティブ ディレクトリ スキャンの監視時間枠の終了時刻を指定する任意の属性。DirectoryPathで指定されたディレクトリへの新しいファイルの到着を監視する期間を定義できます。 終了時刻は次のように表わします。
例えば、2019年8月23日の午後2時に終了する場合は次のようになります。 VigilStopTime = '20190823 14:00:00' VigilStopTimeとVigilElapsedTimeは交換可能ですが、相互に排他的です。VigilStopTimeのデフォルト値はありません。また、ArchiveDirectoryPathも、VigilStartTimeとともに設定する必要があります。 この属性は、Consumerオペレータには無効です。 |
VigilWaitTime = waitSeconds | アクティブ ディレクトリ スキャンについて、Producerオペレータによって新しいファイルが見つからなかった場合に、ディレクトリのチェックを再び開始するまでの待ち時間を指定する任意の属性。 待ち時間が2分の場合、値は次のようになります。 VigilWaitTime = 120 デフォルトの待ち時間は60秒です。 VigilWaitTime属性を使用するには、ArchiveDirectoryPath属性の値を、VigilStartTimeとVigilStopTime(またはVigilElapsedTime)とともに指定する必要があります。 属性の値は外部コマンド インターフェースでジョブ実行中に変更できます。 実行中にVigilWaitTimeの値を変更するためには、次のとおり入力します。 twbcmd <Teradata PT job ID> <operator ID> VigilWaitTime=<Seconds> この属性は、Consumerオペレータでは無視されます。 |
WriteBOM = 'option' | Unicode出力ファイルの先頭にBOM(バイト オーダー マーク)を挿入できるようにする任意の属性。 このオプションは、UTF-8またはUTF-16文字セットを使用しているテキスト ファイル(Format属性が'Text'または'Delimited’)に書き込むConsumerインスタンスにのみ適用されます。 有効な値は次のとおりです。
この属性は、Producerオペレータには無効です。 |