DataConnectorオペレータの必須および任意の属性値を宣言するためには、Teradata PTのDEFINE OPERATOR文で属性定義リスト構文を使用します。
複数ファイルの並列処理が可能です。DirectoryPath属性で基本ディレクトリを指定し、読み取りを行なう一連のファイルの選択基準としてワイルドカードをFileName属性で指定することにより、プロデューサ型DataConnectorオペレータのインスタンスを複数使用できるようになります。
'Hadoop'で始まる属性を指定すると、DataConnectorオペレータは、ローカルのファイル システムにあるファイルやディレクトリではなく、Hadoopのファイル、ディレクトリ、およびテーブルを処理します。詳細は、Hadoopのファイルとテーブルの処理を参照してください。
使用場所:
構文要素 | 説明 |
---|---|
AcceptExcessColumns = ‘option’ | 行に上限を超える列数を含めることができるかどうかを指定する任意の属性。これは区切りデータにのみ適用されます。 有効な値は
|
AcceptMissing Columns = ‘option’ | 列カウントがスキーマでの定義より少ない行の処理方法を決める任意の属性。これは区切りデータにのみ適用されます。 有効な値は
|
AccessModuleInitStr = 'initString' | 特定のアクセス モジュールの初期化文字列を指定する任意の属性。 initString値については、<Teradata Tools and Utilities Access Moduleリファレンス、B035-2425>の各モジュールに関する「初期化文字列」の節を参照してください。 |
AccessModuleName = 'name' | アクセス モジュールのファイル名を指定する任意の属性。ここで、'name'の値は以下に依存します。 Teradata Access Module for Amazon S3
Teradata Access Module for Named Pipes
Teradata Access Module for WebSphere MQ(クライアント バージョン)
Teradata Access Module for WebSphere MQ(サーバー バージョン)
Teradata Access Module for OLE DB
Teradata Access Module for Kafka
Teradata Access Module for Azure
カスタム アクセス モジュールを使用する場合は、共有ライブラリ ファイル名を使用します。 オペレータによって、使用するプラットフォームに適切な接尾辞が付加されるため、アクセス モジュール名に接尾辞は必要ありません。 アクセス モジュール名にパスが含まれない場合、Teradata PTは次の順番でそれを検索します。
DataConnectorオペレータは、システム パラメータが適切に設定されている場合、Windows、HP-UX、AIX、およびSPARCシステム版Solarisで2ギガバイトを超えるサイズのファイルをサポートするようになったため、ラージ ファイル アクセス モジュールは使用不可になりました。 |
AppendDelimiter | 書き込まれたすべてのレコードの最後に区切り記号を追加する任意の属性。 区切られた出力ファイルを作成するときは、AppendDelimiterを使用します。 レコードの最後の列がNULLの場合、区切り文字はその列がNULLであることを示します。 有効な値は次のとおりです。
|
ArchiveDirectoryPath = ‘pathName’ | 現在のディレクトリからすべての処理済みファイルを移動するディレクトリの完全なパス名を定義します(DirectoryPath属性により指定)。 VigilMaxFiles属性の値を指定する場合は、この属性が必須です。 DataConnector Consumerの複数インスタンスが要求されると、出力ファイル名にシーケンス番号が付加されます。 チェックポイントが完了するたびに、各インスタンスの現在の出力ファイルが閉じられ、アーカイブが作成されます。インスタンス番号が付いた新しいファイルが、各インスタンスに対して開かれ、付加されるシーケンス番号はインクリメントされます。 |
ArchiveFatal = ‘option’ | アーカイブ(ファイルの移動)に失敗した場合の処置を定義します。 有効な値は次のとおりです。
|
CloseQuoteMark = " | 終了引用符。 セッション文字セットの任意のシングルバイトまたはマルチバイトの値になります。 例:「"」または「| |」 デフォルト値は、属性OpenQuoteMarkに指定された値です。 |
DirectoryPath = 'pathName' | FileName属性のワイルドカード機能をサポートする任意の属性。 FileName属性によって指定されたファイルの場所(またはPDSメンバー)に対して既存の基本ディレクトリ パス(またはz/OS PDSデータセット名)を指定する場合は、この属性を使用します。 z/OSデータセット(DD:DATA)がFileName属性で指定されている場合は、この属性を使用できません。 JCL DD文を持つz/OS PDSデータセットを指定するには、次の例に示すように、DirectoryPath属性値に接頭辞「DD:」を付けます。 DirectoryPath='DD:<ddname>' z/OS PDSデータ セットを直接指定するには、以下の構文を使用します。 DirectoryPath=’//’’dataset-name’’’ この属性のデフォルトは、ジョブが実行されているディレクトリ(DEFINE JOB文で指定されたジョブ作業ディレクトリ)に設定されています。 FileName属性にディレクトリ構文が含まれている場合、DirectoryPath属性は空にしておきます。 DataConnectorがコンシューマ型インスタンスである場合も、DirectoryPath属性を空にしておきます。 DataConnectorがプロデューサ型インスタンスである場合、FileName属性内にディレクトリ名が含まれていなければ、ディレクトリ パス指定がファイル名の先頭に付加されます。 |
EnableScan = ‘mode’ | アクセス モジュールを使用している場合、ディレクトリ スキャン ロジックを無視する任意の属性。
FileName属性でワイルドカード文字が指定されているにもかかわらず、この属性を'No'に設定すると、DataConnectorログに警告メッセージが生成されます。 |
ErrorLimit =errorLimit | errorLimit = (0 - 2147483647) 0 = デフォルト(無制限) DataConnectorオペレータ ジョブを終了するまでにエラー行ファイルに格納できるレコードの概数を指定する任意の属性。 ErrorLimitを指定しないと、ErrorLimitの値が0の場合と同じです。 ErrorLimitの指定は、DataConnectorオペレータの各インスタンスに適用されます。 「RecordErrorFileName」属性が定義されている場合(従来「RowErrFileName」と呼ばれていたもの)、エラー レコードは指定したファイルに保存され、ジョブは致命的なエラーで終了することなく追加のレコードを処理し続けます。 ErrorLimit属性の影響については、<Teradata Parallel Transporterユーザー ガイド、B035-2445>を参照してください。 サポートされていてもマニュアルに記載されなくなった廃止された構文の一覧については、非推奨の構文を参照してください。
|
EscapeQuoteDelimiter=‘close-quote’ | 区切りデータ内のエスケープ引用符を定義するための任意の属性。 デフォルト値 は‘close-quote’です。 引用符で囲まれた区切りデータの処理の規則を参照してください。 区切り形式でデータを処理する際に、OpenQuoteMarkまたはCloseQuoteMarkの前にEscapeQuoteDelimiterがある場合には、引用符(開始または終了のどちらか)のそのインスタンスは引用符で囲まれた文字列の開始または終了を表わすマークではなくデータ内に組み込まれます。 |
EscapeTextDelimiter = ‘character’ | 区切りデータ内の区切り文字のエスケープ文字を定義するための任意の属性。 デフォルトのデータはありません。 区切り形式でデータを処理する際に、区切り文字の前にEscapeTextDelimiterによって定義されているエスケープ シーケンスがある場合には、区切り文字のそのインスタンスは列の終わりを表わすマークではなくデータ内に組み込まれます。EscapeTextDelimiterで定義されたエスケープの直後に区切り記号文字がない場合、データは通常とみなされ、それ以上の処理は行なわれません。 例えば、デフォルトの区切り文字がパイプ( | )で、EscapeTextDelimiterが円記号の場合に、列にabc\|def|というデータが入力されたとすると、そのデータはabc|defとしてロードされます。 |
FileList = 'option' | fileNameとともに使用する任意の属性。 有効な値は次のとおりです。 'Yes'または'Y' = FileNameで指定したファイルに、処理対象のファイル リストが含まれます。 'No'または'N' = FileNameで指定したファイルには、処理対象のファイル リストが含まれません。 VARCHAR FileList = 'Y' DataConnectorオペレータは、ネットワークに接続されたプラットフォーム上のASCII、およびメインフレーム接続のプラットフォーム上のEBCDICでエンコードされたFileListファイルをサポートします。
|
FileName = 'fileName' | 処理対象のファイル名を指定する必須の属性。 場合によっては、AccessModuleName属性を使用して指定したアクセス モジュールでファイル名が使用または認識されないことがあります。そのため、FileName属性の値の指定が必須ではないことがあります。 例えば、Teradata Access Module for IBM Websphere MQでは、ファイル名の指定が必須ではありません。 FileList属性とともに使用すると、fileNameは、処理対象のファイル名(それぞれフルパスで指定)のリストが含まれることが想定されます。 この場合、ワイルドカード文字は、FileName属性自体とそこに含まれるファイル名にも使用できません。 オペレータの複数インスタンスを使用すると、ファイルのリストを同時に処理できます。 Windowsプラットフォームの場合、'filename'オペレータ属性でワイルドカード文字(*)を使用すると、必要以上のファイルが誤って含まれる場合があります。例えば、*.datを指定すると、フォルダのディレクトリ スキャンは*.dat*と指定したかのようにファイルを検索します。例えば、拡張子.data、.date、および.dat071503を持つファイルも検索されます。このため、まずフォルダから無関係なファイルを削除することが必要な場合があります。 GZIP圧縮ファイルの読み取りと書き込みは、すべてのOSプラットフォームでサポートされています。このサポートはファイルの拡張子に基づいて自動的に有効になります。gzipファイルの標準ファイル名拡張子は"*.gz"です。 Zip圧縮ファイルの読み取りと書き込みは、WindowsおよびUnixでサポートされますが、IBM z/OSではサポートされません。 このサポートはファイルの拡張子に基づいて自動的に有効になります。 zipファイルの標準ファイル名拡張子は"*.zip"です。 ZIP形式で読み取りと書き込みがサポートされるのは、単一ファイルのみです。 Hadoop/HDFSを使用する場合、GZIPおよびZIPファイルの読み取りと書き込みはサポートされません。 追加のz/OSデータセット構文については、有効なFileName構文を参照してください。 |
Format = 'format' | データの論理レコード形式を指定する必須の属性。 システム デフォルトはありません。 Formatで使用できる値は次のとおりです。
|
HadoopBlockSize= (x * 1K bytes)' | ブロック/バッファのサイズを指定する任意の属性で、Hadoop/HDFSファイルに書き込むときに1K単位で増加します。 HadoopBlockSize値は、1からx 1Kバイトのどこか(xは任意)で定義することができます。 Hadoop/HDFSクラスタの典型的なデフォルトのブロック サイズは64MBで、これはTPTも使用するものです(65536 * 1024 = 64MB)。 この属性を使用してデフォルトを変更する前に、システム管理者に確認してください。 この値はメモリの消費に影響する(実行時に割り当てられる内部バッファのサイズが2倍になる)ため、むやみに変更すべきではありません。 有効な値は次のとおりです。
デフォルト値 = 65536。
|
HadoopFileFormat= 'hadoopFileFormat' | TDCHジョブが処理すべきファイルの形式を指定する任意の属性。 DataConnectorのHadoopインターフェース、およびサポートされている値やデフォルト値のTeradata Connector for Hadoopチュートリアルの詳細については、Hadoopのファイルとテーブルの処理を参照してください。 |
HadoopHost= 'hadoopHostName' | Hadoopクラスタにおけるネームノードのホスト名またはIPアドレスを指定する任意の属性。 TDCHジョブを起動するとき、この値は、TPTジョブを実行しているHadoopクラスタにあるノードのホスト名またはIPアドレスである必要があります。 ホスト名およびIPアドレスは、Hadoopクラスタにあるすべてのデータノードから到達可能である必要があります。 DataConnectorのHadoopインターフェースの詳細については、 Hadoopのファイルとテーブルの処理を参照してください。. HDFS APIジョブを起動するとき、この値は、HDFS操作を実行するクラスタを示し、以下のように設定できます。 “default" = Hadoop HDFS構成ファイルで宣言されたデフォルトの名前ノード。 <host-name>:<port> = HDFS操作を実行するクラスタの、名前ノードのホスト名/IPアドレスおよびポート。“:<port>"値は任意です。 |
HadoopJobType= 'hadoopJobType' | 起動するTDCHジョブの種類を指定する任意の属性。 DataConnectorのHadoopインターフェース、およびサポートされている値やデフォルト値のTeradata Connector for Hadoopチュートリアルの詳細については、Hadoopのファイルとテーブルの処理を参照してください。 |
HadoopNumMappers= 'hadoopNumMappers' | TDCHが起動するmapperの数を指定する任意の属性。 DataConnectorのHadoopインターフェース、およびサポートされている値やデフォルト値のTeradata Connector for Hadoopチュートリアルの詳細については、Hadoopのファイルとテーブルの処理を参照してください。 |
HadoopSeparator= 'hadoopSeparator' | TDCHジョブが処理するファイルでフィールドを区切る文字を指定する任意の属性。 この属性は、属性のデフォルト値である'HadoopFileFormat'が'textfile'に設定されている場合に限り有効です。 DataConnectorのHadoopインターフェース、およびサポートされている値やデフォルト値のTeradata Connector for Hadoopチュートリアルの詳細については、Hadoopのファイルとテーブルの処理を参照してください。 |
HadoopSourceDatabase='hadoopSourceDatabase' | データのエクスポート元である、HiveまたはHcatalog上のソース データベースの名前を指定する任意の属性。 DataConnectorのHadoopインターフェース、およびサポートされている値やデフォルト値のTeradata Connector for Hadoopチュートリアルの詳細については、Hadoopのファイルとテーブルの処理を参照してください。 |
HadoopSourceFieldNames = 'hadoopSourceFieldNames' | ソースHDFSファイルから、またはソースHiveおよびHCatalogテーブルからエクスポートするフィールドの名前を、カンマ区切り形式で指定する任意の属性。 DataConnectorのHadoopインターフェース、およびサポートされている値やデフォルト値のTeradata Connector for Hadoopチュートリアルの詳細については、Hadoopのファイルとテーブルの処理を参照してください。 |
HadoopSourcePartitionSchema= 'hadoopSourcePartitionSchema' | Hiveにあるソース テーブルの完全パーティション スキーマを、カンマ区切り形式で指定する任意の属性。 この属性は、'HadoopJobType'が'hive'に設定されている場合にのみ有効です。 DataConnectorのHadoopインターフェース、およびサポートされている値やデフォルト値のTeradata Connector for Hadoopチュートリアルの詳細については、Hadoopのファイルとテーブルの処理を参照してください。 |
HadoopSourcePaths= 'hadoopSourcePaths' | HDFS上の、エクスポートされるソース ファイルのディレクトリを指定する任意の属性。 この属性は、'HadoopJobType'が'hdfs'に設定されている場合に必須で、'HadoopJobType'が'hive'に設定されている場合は任意、また'HadoopJobType'が'hcat'に設定されている場合は無効です。 DataConnectorのHadoopインターフェース、およびサポートされている値やデフォルト値のTeradata Connector for Hadoopチュートリアルの詳細については、Hadoopのファイルとテーブルの処理を参照してください。 |
HadoopSourceTable = 'hadoopSourceTable' | データのエクスポート元である、HiveまたはHcatalog上のソース テーブルの名前を指定する任意の属性。 この属性は、'HadoopJobType'が'hcat'に設定されている場合に必須で、'HadoopJobType'が'hive'に設定されている場合は任意、また'HadoopJobType'が'hdfs'に設定されている場合は無効です。 DataConnectorのHadoopインターフェース、およびサポートされている値やデフォルト値のTeradata Connector for Hadoopチュートリアルの詳細については、Hadoopのファイルとテーブルの処理を参照してください。 |
HadoopSourceTableSchema= 'hadoopSourceTableSchema' | HiveまたはHcatalog上のソース テーブルの完全列スキーマを、カンマ区切り形式で指定する任意の属性。 DataConnectorのHadoopインターフェース、およびサポートされている値やデフォルト値のTeradata Connector for Hadoopチュートリアルの詳細については、Hadoopのファイルとテーブルの処理を参照してください。 |
HadoopTargetDatabase= 'hadoopTargetDatabase' | データのインポート先である、HiveまたはHcatalog上のターゲット データベースの名前を指定する任意の属性。 これは、「hive」や「hcat」ジョブの場合に任意で、「hdfs」ジョブの場合は無効です。 DataConnectorのHadoopインターフェース、およびサポートされている値やデフォルト値のTeradata Connector for Hadoopチュートリアルの詳細については、Hadoopのファイルとテーブルの処理を参照してください。 |
HadoopTargetFieldNames = 'hadoopTargetFieldNames' | HDFS上のターゲット ファイル、またはターゲットHiveおよびHCatalogテーブルに書き込むフィールドの名前を、カンマ区切り形式で指定する任意の属性。 DataConnectorのHadoopインターフェース、およびサポートされている値やデフォルト値のTeradata Connector for Hadoopチュートリアルの詳細については、Hadoopのファイルとテーブルの処理を参照してください。 |
HadoopTargetPartitionSchema= 'hadoopTargetPartitionSchema' | HDFS上のターゲット ファイル、またはターゲットHiveおよびHCatalogテーブルに書き込むフィールドの名前を、カンマ区切り形式で指定する任意の属性。 DataConnectorのHadoopインターフェース、およびサポートされている値やデフォルト値のTeradata Connector for Hadoopチュートリアルの詳細については、Hadoopのファイルとテーブルの処理を参照してください。 |
HadoopTargetPaths= 'hadoopTargetPaths' | HDFS上の、インポートされるソース ファイルのディレクトリを指定する任意の属性。 この属性は、'HadoopJobType'が'hdfs'に設定されている場合に必須で、'HadoopJobType'が'hive'に設定されている場合は任意、また'HadoopJobType'が'hcat'に設定されている場合は無効です。 DataConnectorのHadoopインターフェース、およびサポートされている値やデフォルト値のTeradata Connector for Hadoopチュートリアルの詳細については、Hadoopのファイルとテーブルの処理を参照してください。 |
HadoopTargetTable= 'hadoopTargetTable' | データがインポートされる、HiveまたはHcatalog上のターゲット テーブルの名前を指定する任意の属性。 この属性は、'HadoopJobType'が'hcat'に設定されている場合に必須で、'HadoopJobType'が'hive'に設定されている場合は任意、また'HadoopJobType'が'hdfs'に設定されている場合は無効です。 DataConnectorのHadoopインターフェース、およびサポートされている値やデフォルト値のTeradata Connector for Hadoopチュートリアルの詳細については、Hadoopのファイルとテーブルの処理を参照してください。 |
HadoopTargetTableSchema= 'hadoopTargetTableSchema' | HiveまたはHcatalog上のターゲット テーブルの完全列スキーマを、カンマ区切り形式で指定する任意の属性。 DataConnectorのHadoopインターフェース、およびサポートされている値やデフォルト値のTeradata Connector for Hadoopチュートリアルの詳細については、Hadoopのファイルとテーブルの処理を参照してください。 |
HadoopUser= 'hadoopUser' | HDFSAPIインターフェース経由でファイルの読み取りおよび書き込みを行なう場合に利用するHadoopユーザーの名前を指定する任意の属性。 この属性が指定されていない場合は、その時点でTPT HDFSジョブを実行しているログイン ユーザー名が使用されます。 DataConnectorのHadoopインターフェースの詳細については、Hadoopのファイルとテーブルの処理を参照してください。 |
IndicatorMode = 'mode' | 各レコードの先頭に標識バイト数を組み込むかどうかを指定する任意の属性。
|
MaxColumnCountErrs = numberOfErrors | プライベート ログに書き込まれる列カウント エラーの最大数を指定する任意の属性。 有効な値は、次のとおりです。 >1 . . . <99999 列カウント エラーの数が指定された値に達すると、メッセージがプライベート ログとパブリック ログの両方に発行され、それ以上のエラーはこれらのログに書き込まれません。 プライベート ログに書き込まれたこれらのエラー行の合計数は、終了時にプライベート ログに表示されます。 |
NamedPipeTimeOut = seconds | 名前付きパイプ (FIFO)のチェックを可能にする任意の属性。秒数が正の数に設定されている場合、データが利用可能になるまで、または指定した時間が経過してジョブが終了するまで、DataConnectorオペレータはパイプのデータを毎秒チェックします。属性が指定されていない場合、パイプのチェックは行なわれません。これによりパフォーマンスが向上しますが、読み込み時にパイプ内でデータが利用できない場合は、ハング ジョブになる可能性もあります。 この属性はパイプを直接読み取るためにDataConnectorオペレータを使用するジョブ専用です。Named Pipe Access Module (NPAM)がパイプI/Oを実行するときには使用されません。 |
MultipleReaders = 'option' | 任意選択の属性で、'Yes'が設定されると、Data Connector Producerオペレータに対して、複数のインスタンスが単一のファイルから同時に読み取りできるように、指示します。 |
NotifyExit = 'inmodName' | _dynamnという名前のエントリ ポイントを持つユーザー定義の通知出口ルーチンの名前を指定する任意の属性。 値を指定しない場合、次のデフォルト名が使用されます。
独自の通知出口ルーチンを指定する方法については、非推奨の構文を参照してください。 |
NotifyLevel = ' notifyLevel ' | 特定のイベントをレポートするレベルを指定する任意の属性。 有効な値は次のとおりです。
|
NotifyMethod = 'notifyMethod | イベントをレポートするためのメソッドを指定する任意の属性。メソッド:
|
NotifyString = 'notifyString' | システム ログに送られるすべてのメッセージの先頭に付加するユーザー定義文字列を指定する任意の属性。 この文字列は、ユーザー定義の通知出口ルーチンにも送られます。 文字列の最大長は次のとおりです。
|
NullColumns= ‘option’ | スキーマで必要な列が一部しか区切りデータで指定されていない場合に、ジョブで作成する列の内容を決定します。 この属性を利用するには、AcceptMissingColumnsは'Y[es]'または'Y[eswithoutlog]'でなければなりません。また、QuotedDataは'Y[es]'または'O[ptional]'でなければなりません。 有効な値は次のとおりです。
これらの例では、区切り記号文字はデフォルトの|文字。QuotedDataは有効で、AcceptMissingColumnsは'Y'です。スキーマの例は次のとおりです。 ... (VARCHAR(5), VARCHAR(5), VARCHAR(5), VARCHAR(5), VARCHAR(5), VARCHAR(5)) ... 最初のサンプル データ レコードは次のとおりです。 "abc"|""||"def" スキーマは6つのフィールドを必要としますが、レコードが提供するのは4つのフィールドのみです。 フィールド1、2および4には、文字列"abc"、""、および"def"が含まれています。 ""はNULLではないことに注意してください。これは、長さゼロの文字列です。他の文字列と同じ方法で処理されます。 フィールド3は、明示的にNULL列で指定されます。元のレコードの一部なので、NullColumns属性の影響を受けません。 フィールド5と6は提供されておらず、DataConnectorで作成する必要があります。 NullColumns属性を使用して、これらの新しいオペレータ作成の列を変更できます。 NullColumnsが'Y[es]'に設定されているか、デフォルトの動作が使用されている場合は、データ ファイルにレコードが含まれているかのような結果になります。 "abc"|""||"def"||| 新しく作成された列の両方がNULLです。 しかし、NullColumns = 'N[o]'を使用すると、レコードが次のように定義されているかのように動作します。 "abc"|""||"def"|""|"" 新しく作成された列には空の文字列が含まれます。 どちらも元のデータ レコードの一部であったフィールド2と3は、NullColumns属性の設定に関係なく変更されません。 |
OpenMode = 'mode' | 読み取り/書き込みアクセス モードを指定する任意の属性。 有効な値は次のとおりです。
OpenModeのmodeを指定しない場合、プロデューサ型インスタンスでは'Read'が、コンシューマ型インスタンスでは'Write'がデフォルトとなります。 |
OpenQuoteMark = " | 区切りデータ内の開始引用符を定義するための任意の属性。 デフォルト値は、‘quote’です。 セッション文字セットの任意のシングルバイトまたはマルチバイトの値になります。 例: 「"」または「| |」 |
PrivateLogName = 'logName' | Teradata PT Loggerによってパブリック ログ内部に保持されるログの名前を指定する任意の属性。 プライベート ログには、オペレータによるすべての診断トレース メッセージが含まれます。 ファイル名には、オペレータのインスタンス番号が付加されます。 インスタンス1のログ名には、"-1"が付加されます。 例えば、PrivateLogName ='DClog'の場合、インスタンス1の実際のログ名はDClog-1になります。 同様にインスタンス2はDclog-2となり、以下同様に続いていきます。 プライベート ログは、tlogviewコマンドを次のように使用すると表示できます。ここで、jobidはTeradata PTのジョブ名を、privatelognameはオペレータのPrivateLogName属性の値を示します。 tlogview -j jobId -f privatelogname プライベート ログを指定しない場合、出力はすべてパブリック ログに格納されます。 tlogviewコマンドの詳細については、Teradata PTユーティリティのコマンドを参照してください。 |
QuotedData = ‘option’ | データを引用符で囲むかどうかを決定します。 有効な値は次のとおりです。 'Yes'または'Y' = すべての列を引用符で囲みます。 'No'または'N' = 列を引用符で囲みません(デフォルト)。 ‘Optional’ = 列は任意で引用符で囲むことができます。 |
RecordErrorFileName = ‘filePath’ | エラーレコードの送信先を指定する任意の属性。 不正な長さの個別の列または不正な列数がエラーレコードに含まれます。 この属性が定義されていない場合、最初に発生したエラー レコードは致命的なオペレータ エラーとなり、ジョブが終了します。 |
RecordErrorVerbosity = ‘option’ | レコード エラー ファイルに注釈を付けられるようにする任意選択の属性です。 有効な値は次のとおりです。
|
RecordsPerBuffer = count | 各処理フェーズ中に各インスタンスによって処理されるレコードの数を定義する任意の属性。この属性がサポートしているオプションは、MultipleReadersのみです。この属性は、その他のシナリオとは無関係です。デフォルトは、IOBufferSizeをスレーブ リーダー インスタンスの数で割ることで算出されます。 次に、その結果をスキーマで定義されている最大レコード サイズで割ります。 スレーブ インスタンスの数は、オペレータ インスタンスの合計から1を引いた値と同じです。 例えば、10個のリーダー インスタンスが定義されていて、スキーマの長さが400バイトである場合、この値はデフォルトで1048575バイト/9インスタンス/400バイト=291レコードとなります。 |
RowsPerInstance = rows | オペレータの各インスタンスで処理される最大レコード数を指定する任意の属性。 この数値は複数のファイルに及びます。つまり、各インスタンスで行数が制限値に達するまで、ファイルの境界を越えて処理が継続されます。 制限値に達しなかったインスタンスは正常に終了します。 INTEGER RowsPerInstance = 1000 制限値は再始動を挟むと無効になります。つまり、再始動後は行カウントがゼロにリセットされます。 |
SkipRows = rows | オペレータの各インスタンスでスキップされる行数を指定する任意選択の属性。 SkipRowsが複数のファイルにおよぶ、またはファイルごとに再起動するかどうかは、SkipRowsEveryFileの値により決まります。 INTEGER SkipRows = 1000 |
SkipRowsEveryFile = ‘option’ | SkipRows(上記)の動作を決める任意選択の属性。 SkipRowsEveryFileがNo(デフォルト)であると、SkipRows値は累積的に処理されます。 つまり、省略する行数が指定値に達するまで、ファイルの境界を越えて処理が継続されます。 例えば、SkipRows = 1000、SkipRowsEveryFile = 'N'、それぞれ300行からなる、処理対象ファイルが5つの場合は、ファイル1、2、および3はスキップされ、ファイル4は101行から処理が開始され、ファイル5は全体が処理されます。 失敗したジョブですでに処理された行をスキップするためにこのオプションを使用できます。 SkipRowsEveryFileがYesであると、SkipRows値により、各ファイルで先頭から処理が開始されます。 例えば、SkipRows = 5、SkipRowsEveryFile = 'Yes'、それぞれ300行からなる、処理対象ファイルが5つの場合は、各ファイルの最初の5行がスキップされ、第6行から300行が処理されます。 処理対象の各ファイルに繰り返し現われるヘッダ行をスキップするためにこのオプションを使用できます。 VARCHAR SkipRowsEveryFile = 'Y' |
TextDelimiter = 'character’ | 区切りレコード内のフィールドを分離する文字を指定する任意の属性。 この属性への割り当てで定義できる文字数に制限はありません。 デフォルトの区切り文字は、パイプ文字( | )です。 データに区切り記号を埋め込む場合は、その区切り記号の前に円記号( \ )を付加します。 区切り文字としてタブ文字を使用する場合は、TextDelimiter = 'TAB'を指定します。 小文字の"tab"ではなく、大文字の"TAB"を使用してください。 タブ文字をデータ内に埋め込むときには、円記号が必要になります。
|
Timeout = seconds | 入力が完了するまでシステムが待機する時間を秒単位で指定する任意の属性。
値を指定しない場合、システムは入力の完了を待機しません。 |
TraceLevel = 'level' | オペレータの各インスタンスによってパブリック ログ(PrivateLogName属性で指定されている場合はプライベート ログ)に書き込まれる診断情報の種類を指定する任意の属性。 診断トレース機能によって、ログ ファイルに詳細な情報が提供されるため、問題の追跡や診断に役立ちます。トレース レベルは次のとおりです。
PrivateLogFile属性を使用してログ ファイルを指定する場合、TraceLevel属性を指定しないと、ログ ファイルには、以下に示す「最小限」の統計情報しか表示されません。
TraceLevel属性は、診断を支援するためにのみ指定します。 この属性によって得られる追加情報の量とタイプは、ニーズの変化に合わせてリリースごとに変わります。
|
TrimChar = ‘character’ | トリムする文字を指定する任意の属性。 トリム文字の規則は次のとおりです。
|
TrimColumns = ‘option’ | 文字を列データからトリムするかどうかを指定する任意の属性。 有効な値は次のとおりです。
TrimColumnsおよびTruncateColumnDataを有効にした場合、トリミングは切り捨ての前に行なわれます。
|
TruncateColumnData = ‘option’ | スキーマでの定義より長い列の処理方法を決める任意の属性。これは区切りデータにのみ適用されます。 有効な値は次のとおりです。
|
VigilElapsedTime = minutes | ジョブの開始から終了までの経過時間を指定する任意の属性。 これは、VigilStartTimeからの待ち時間です。 VigilElapsedTimeとVigilStopTimeは交換可能です。 VigilStartTimeは必須ですが、時間枠定義の終了には、VigilStopTimeとVigilElapsedTimeのどちらを使用してもかまいません。 VigilElapsedTimeは分単位で表わされます。 例えば、時間枠が2時間15分の場合は次のように指定します。 VigilElapsedTime = 135 |
VigilMaxFiles = numberOfFiles | 1回にスキャンできるファイル数の最大値を定義する任意の属性。 この値を大きくすると、より多くのTeradata PTグローバル メモリが必要となり、パフォーマンスが低下します。 numberOfFilesに指定できる値の範囲は、10~50000です。 デフォルト値は2000です。 VigilMaxFiles属性を使用するには、ArchiveDirectoryPath属性の値を指定することが必要になります。 属性の値は外部コマンド インターフェースでジョブ実行中に変更できます。 実行中にVigilMaxFilesの値を変更するためには、次のように入力します。 twbcmd <Teradata PT job ID> <operator ID> VigilMaxFiles <number of files> |
VigilNoticeFileName = 'noticeFileName' | 監視通知フラグが書き込まれるファイル名を指定する任意の属性。 例えば、/home/user/Alert.txtファイルにレコードを書き込むように指示するためには、次のように指定します。VigilNoticeFileName = '/home/user/Alert.txt' ディレクトリ パスを指定しない場合、ファイルは作業ディレクトリに保存されます。 ファイル名を指定すると、通知機能が有効になります。 |
VigilSortField = ‘sortTime’ | ディレクトリ監視スキャン ファイルを、その最終変更時間で整列できるようにする任意の属性。 sortTimeに指定できる値は次のとおりです。
ファイルに関連する時間が追跡されるのは直近の秒までであるため、複数のファイルでタイムスタンプが同じになる場合があります。 ファイルの変更時間に1秒以上の差がない場合は、ファイルの整列順が実際の変更順序を表わしていないこともあります。 複数のインスタンスを使用する場合、ファイルを特定の順序で処理することはできません。この属性を使用すると、Teradata PTにより、ジョブ ステップで使用できるDataConnectorオペレータのインスタンスが1つのみになります。複数のインスタンスを指定すると、ジョブが失敗します。 この属性は、バッチおよびアクティブ ディレクトリ スキャンに使用できます。 この属性は、z/OSシステムでは使用できません。
|
VigilStartTime = 'yyyymmdd hh:mm:ss' | 監視時間枠の開始時刻を指定する任意の属性。監視時間枠とは、DirectoryPathName属性で指定されたディレクトリへの新しいファイルの到着を監視する期間です。 停止時刻は次のように表わします。
例えば、2002年8月23日の午前9時22分56秒に開始する場合、値は次のようになります。 VigilStartTime = '20020823 09:22:56' この属性は、VigilWaitTime属性の動作に必須です。 |
VigilStopTime = ‘yyyymmdd hh:mm:ss’ | 監視時間枠の終了時刻を指定する任意の属性。監視時間枠とは、DirectoryPathName属性で指定されたディレクトリへの新しいファイルの到着を監視する期間です。 開始時刻は次のように表わします。
例えば、2002年8月23日の午後2時に終了する場合、値は次のようになります。 VigilStopTime = '20020823 14:00:00' |
VigilWaitTime = waitSeconds | 新しいファイルが見つからなかった場合にディレクトリのチェックを再び開始するまでの待ち時間を指定する任意の属性。 待ち時間が2分の場合、値は次のようになります。 VigilWaitTime = 120 デフォルトの待機時間は60秒です。このデフォルトは、VigilStartTimeが指定されている場合にのみ設定されます。 属性の値は外部コマンド インターフェースでジョブ実行中に変更できます。 実行中にVigilWaitTimeの値を変更するためには、次のとおり入力します。 twbcmd <Teradata PT job ID> <operator ID> VigilWaitTime <Seconds> |