Las siguientes limitaciones afectan al uso de los conectores de QueryGrid en enlaces de Teradata a conector de destino:
Limitación | T2T | T2P | T2H | T2S | T2O | T2B | T2G |
---|---|---|---|---|---|---|---|
No se admite el almacenamiento de conjuntos de datos CSV. | X | X | X | X | X | X | X |
No se admite la semántica de transacciones entre sistemas. | X | X | X | X | X | X | X |
El uso de la cláusula Returns no es compatible con los enlaces Teradata a Teradata. | X | ||||||
Cuando se utilizan consultas de cláusula EXPORT, el tipo de datos LOB UDT no se puede exportar si no se importan LOB/LOB UDT en la consulta de FOREIGN TABLE. | X | X | X | X | X | X | X |
La cláusula WITH no se puede utilizar dentro de la consulta de aplicación FOREIGN TABLE. | X | X | X | X | X | X | |
La cláusula EXPORT no admite char/varchar con el conjunto de caracteres Kanji1. | X | X | X | X | X | X | X |
Los literales de fecha utilizados en cláusulas WHERE no se convierten a la zona horaria del sistema remoto si esta es diferente de la zona horaria del sistema iniciador. | X | X | X | X | X | X | X |
El tamaño máximo admitido para BLOB y CLOB es menor de 2 GB (2.097.088.000). | X | X | X | X | X | X | X |
El tamaño máximo de VARCHAR es de 64 k. | X | ||||||
El nombre de la base de datos temporal, NVP, no se admite en Teradata Database versión 15.10. | X | ||||||
Si se utiliza SQL Engine 17.05 o una versión anterior, se puede reemplazar un máximo de 8 propiedades de conector de Teradata durante una sesión individual para un servidor externo. | X | X | X | X | X | X | X |
Si se utiliza SQL Engine 17.05 o anterior, la longitud máxima admitida de la agrupación de consultas es de 1024 bytes. | X | X | X | X | X | X | X |
La función Ejecución de función externa (FFE) no es compatible con los conectores de destino. | X | X | X | X | X | X | |
El uso de Presto se limita a las consultas que se pueden realizar en la memoria, por lo que es posible que algunas consultas que se ejecutan en Hive no puedan ejecutarse en Presto. | X | ||||||
QueryGrid no admite los tipos de datos TimeWithTimeZone y TimestampWithTimeZone con conectores de Presto. | X | ||||||
Las siguientes propiedades especulativas de Hive no se admiten y están deshabilitadas de forma predeterminada, a menos que el parámetro Support Hive Task Retries esté establecido en True:
|
X | ||||||
De forma predeterminada, el conector de destino de Hive devuelve un 1 como el número de filas exportadas, independientemente del número de filas que se exportaron durante una consulta de exportación correcta. Al establecer la propiedad de conector Collect Approximate Activity Count en true, se devuelve el número de filas exportadas con las siguientes limitaciones:
|
X | ||||||
Si se actualiza Hive o se cambia la ubicación de los archivos JAR de Hive estándar, se requiere un reinicio de tdqg-node. | X | ||||||
Los caracteres suplementarios UTF-16 de más de 2 bytes en una tabla provocan el truncamiento de los datos. | X | X | X | X | X | ||
IMPORT no se admite en las columnas VARCHAR, STRING y CHAR de una tabla si el conjunto de caracteres de la tabla es distinto de UTF-16 o latino. | X | X | X | ||||
El conector de Spark no es compatible con tablas ACID ni con tablas transaccionales. | X | ||||||
Tras exportar los datos y asignarlos a un sistema remoto, cualquier error o interrupción posterior en el sistema local no revierten la solicitud remota. |
X | X | X | X | X | X | X |
El conector de Spark SQL no admite roles, ya que Spark no admite roles. | X | ||||||
De forma predeterminada, el conector de destino de Spark SQL devuelve un 1 como el número de filas exportadas, independientemente del número de filas que se exportaron durante una consulta de exportación correcta. Al establecer la propiedad del conector Collect Approximate Activity Count en true, se devuelve el número de filas exportadas con una ligera sobrecarga de rendimiento. Si hay inserciones simultáneas en la tabla de Spark SQL, se puede mostrar un número impreciso de filas, lo que produce un resultado aproximado en lugar de un número preciso. | X | ||||||
A continuación se muestra el resultado de las posibles limitaciones de Apache Spark:
|
X | ||||||
IMPORT no se admite en las columnas VARCHAR, STRING y CHAR de la tabla de Spark si el conjunto de caracteres de la tabla es distinto de UTF-16 o latino. | X | ||||||
No se admite la aplicación de condición de la cláusula LIMIT. | X | X | X | X | X | X | |
Nombres de columna que distinguen entre mayúsculas y minúsculas. | X | X | X | ||||
Las comparaciones con DATE en la cláusula WHERE pueden producir resultados incorrectos. | X | X | X | X | X | X | X |
Cuando el conjunto de caracteres UTF-16 se configure en latín, establezca el NVP en WE8ISO8859P1. | X | ||||||
El conector de BigQuery usa la API de lectura de almacenamiento y la API de escritura de almacenamiento, que tienen algunas limitaciones documentadas. Por ejemplo, al escribir en BigQuery, hay un tamaño de fila máximo de 10 MB y un máximo de 100 subprocesos simultáneos cuando no se usa una región múltiple. Consulte la documentación sobre límites y cuotas de BigQuery. |
X | ||||||
Debido a una limitación de Google, la consulta HELP FOREIGN server solo devuelve conjuntos de datos en la ubicación US. | X | ||||||
Debido a una limitación de la API de escritura de almacenamiento, si se escriben más de 100 GB en BigQuery en una consulta única, se corre el riesgo de una confirmación prematura de los datos antes de que se complete la consulta. | X | ||||||
Los orígenes de datos federados de BigQuery son de solo lectura. Como resultado, el conector de BigQuery de QueryGrid puede leer de los orígenes de datos federados pero no escribir en ellos. | X | ||||||
El conector de BigQuery no puede acceder a conjuntos de datos en otros proyectos con el siguiente formato: select col1 from project_name.dataset_name.table_name@fs_name Utilice la siguiente solución en su lugar: select * from foreign table (select col1 from project_name.dataset_name.table_name)@fs_name ft; |
X | ||||||
Debido a una limitación de Google, QueryGrid no admite la exportación de tipos de datos numéricos JSON de Teradata a BigQuery STRUCT. | X | ||||||
El tamaño máximo de VARCHAR es de 32 k. | X | ||||||
Los UDT no son compatibles. | X | ||||||
Las consultas de cláusulas EXPORT que involucran tipos que no están disponibles en la base de datos de destino generarán un error. | X | ||||||
No se admiten consultas de cláusulas EXPORT que involucran los tipos de datos TIME WITH TIMEZONE y TIMESTAMP WITH TIMEZONE. | X | ||||||
No se admite la exportación de tablas temporales. | X | X | X | X | X | X | X |
No se admite la importación de tablas temporales. | X |