2.16 - 既知の制限事項 - Teradata QueryGrid

Teradata® QueryGrid™ インストールとユーザー ガイド

Product
Teradata QueryGrid
Release Number
2.16
Release Date
2021年6月
Content Type
インストール
ユーザー ガイド
構成
管理
Publication ID
B035-5991-061K-JPN
Language
日本語 (日本)

以下の制限は、TeradataとTargetConnector間のリンクでTeradataの使用に影響します。

制限 T2T T2P T2H T2S T2O
データセットのCSVストレージはサポートされていません X X X X X
システム間のトランザクション セマンティックはサポートされていません。 X X X X X
Teradata-Teradata間リンクではRETURNS句の使用はサポートされません X        
Teradata QueryGridでは、リモートTeradataクエリーに対するクエリー メトリック(CPU使用率など)は収集されません。 X        
EXPORT句クエリーを使用する場合に、FOREIGN TABLEクエリーでLOB/LOB UDTがインポートされていない場合は、LOB UDTデータ型をエクスポートできません X X X X X
WITH句は、FOREIGN TABLEプッシュダウン クエリー内では使用できません。   X X X X
EXPORT句は、Kanji1文字セットを持つchar/varcharをサポートしていません X X X X X
リモート システムのタイム ゾーンがイニシエータ システムのタイム ゾーンと異なる場合、WHERE句で使用される日付リテラルはリモート システムのタイム ゾーンに変換されません X X X X X
BLOBとCLOBでサポートされる最大サイズは2 GB (2,097,088,000)未満です。 X        
VARCHARの最大サイズは64kです X        
一時データベース名、NVPは、Teradata Databaseバージョン15.10ではサポートされていません。 X        
Advanced SQL Engine 17.05以前を使用する場合、外部サーバーの個別のセッション中に、最大8つのTeradataコネクタ プロパティを上書きできます。 X X X X X
Advanced SQL Engine 17.05以前を使用する場合、サポートされる最大クエリー バンド長は1024バイトです。 X X X X X
ターゲット コネクタでは、外部関数の実行(FFE)機能はサポートされていません   X X X X
Prestoの使用はメモリ内で実行できるクエリーに制限されているため、Hiveで実行される一部のクエリーはPresto内で実行できない場合があります   X      
Teradata QueryGridは、PrestoコネクタでのTimeWithTimeZoneデータ型およびTimestampWithTimeZoneデータ型をサポートしていません   X      
Support Hive Task RetriesパラメータがTrueに設定されていない限り、次のHive speculativeプロパティはサポートされておらず、デフォルトで無効になっています。
  • mapreduce.map.speculative=false
  • mapreduce.reduce.speculative=false
  • hive.mapred.reduce.tasks.speculative.execution=false
  • tez.am.speculation.enabled=false
    X    
デフォルトでは、Hiveターゲット コネクタは、エクスポート クエリーが成功したときにエクスポートされた行数に関係なく、エクスポートされた行数として1を返します。Collect Approximate Activity Countコネクタ プロパティをtrueに設定すると、エクスポートされた行数が返されますが、次の制限があります。
  • Hiveテーブル統計情報が不正確である場合(これは一般的ではありません)、このプロパティを有効にすると、挿入クエリーでパフォーマンス オーバーヘッドが生じる可能性があります。
  • Hiveテーブルで同時挿入が実行されると不正確な行数が表示されることがあり、その結果、正確な数値ではなく概算値になる可能性があります。
    X    
Hiveがアップグレードされた場合、または標準のHive JARファイルの場所が変更された場合は、tdqg-node restartが必要です。     X    
UTF-16補助文字がテーブル内で2バイトを超えると、データが切り捨てられます     X X X
テーブルの文字セットがLatinまたはUTF-16以外の文字セットに設定されている場合、VARCHAR、STRING、およびCHAR列ではIMPORTはサポートされません     X X X
Sparkコネクタは、ACIDテーブルまたはトランザクション テーブルをサポートしません       X  

データをエクスポートしてリモート システムにコミットした後は、ローカル システム上で後続のエラーまたはアボートが発生しても、リモート リクエストをロールバックしません。

X X X X X
Sparkではロールがサポートされないため、Spark SQLコネクタはロールをサポートしません       X  
デフォルトでは、Spark SQLターゲット コネクタは、エクスポート クエリーが成功したときにエクスポートされた行数に関係なく、エクスポートされた行数として1を返します。Collect Approximate Activity Countコネクタ プロパティをtrueに設定すると、エクスポートされる行数が返されますが、少量のパフォーマンス オーバーヘッドが生じます。Spark SQLテーブルに同時挿入がある場合、不正確な行数が表示されることがあり、その結果、正確な数値ではなく、おおよその結果になります。       X  
次の結果は、Apache Sparkの制限事項が原因の可能性があります。
  • Spark 2.1以降: Sparkイニシエータを使用しているときに、ターゲット テーブルがすでに作成されていることを表わす非ネイティブ テーブルの後でターゲット テーブルのスキーマを変更する場合、スキーマの変更を反映するには、非ネイティブ テーブルを再作成する必要があります。
  • Spark 2.2以降: Sparkターゲット コネクタを使用してDATE型のデータをインポートする場合、またはSparkイニシエータを使用してDATE型のデータをエクスポートする場合は、Sparkのデータ値が正しくない可能性があります。
  • Spark 2.2以降: SparkはChar/Varcharをサポートしていません。したがって、Sparkターゲット コネクタを使用してQueryGridからデータを挿入し、ターゲット テーブルにchar/varchar列が含まれている場合は、QueryGridからのデータが正しくない可能性があります。正しくないデータの発生を避けるには、Char/Varcharの代わりにStringを使用します。
  • Sparkがアップグレードされた場合、または標準のSpark JARファイルの場所が変更された場合は、tdqg-node restartが必要です。
      X  
テーブルの文字セットがLatinまたはUTF-16以外の文字セットに設定されている場合、SparkテーブルのVARCHAR、STRING、およびCHAR列ではIMPORTはサポートされません       X  
LIMIT句の条件プッシュダウンはサポートされていません X X X X X
大文字と小文字を区別する列名         X
WHERE句でDATEと比較すると、正しくない結果が得られる可能性があります X X X X X
UTF-16文字セットがラテン文字の場合は、NVPをWE8ISO8859P1に設定します         X