move (Teradata Open Distribution for Hadoop) - Teradata Data Mover

Teradata® Data Mover Guía del usuario

Product
Teradata Data Mover
Release Number
17.00
Published
Noviembre de 2021
Language
Español
Last Update
2021-12-03
dita:mapPath
es-ES/gmn1574692806523.ditamap
dita:ditavalPath
es-ES/mpm1591127278842.ditaval
dita:id
B035-4101
Product Category
Analytical Ecosystem

Propósito

El comando move crea un trabajo para copiar los objetos de base de datos especificados de una base de datos en otra; a continuación, inicia el trabajo inmediatamente. Utilice el comando para crear e iniciar un trabajo rápidamente sin la lista de objetos XML especificando las tablas en la línea de comandos.Data Mover permite mover tablas desde Teradata Database hasta Hadoop; también podrá mover tablas de Hive desde Hadoop hasta Teradata Database.

Todos los parámetros de esta sección son específicos de la interfaz de línea de comandos.

Parámetros: específicos para Hadoop

Estos parámetros son específicos del comando move para Hadoop cuando se usa la interfaz de línea de comandos y son comunes en transferencias de Teradata a Hadoop y de Hadoop a Teradata.

Consulte Orden de parámetros.

hadoop_file_delimiter
[Opcional] Especifica un delimitador de caracteres para columnas. Si no se especifica, la coma (",") se utiliza como delimitador. Esta opción solo se aplica si hadoop_file_option se define como Text.
hadoop_file_option
[Optional] Values supported by the Teradata Connector for Hadoop and T2H:
  • Text (predeterminado)
  • RC
  • ORC
hadoop_number_mappers
[Opcional] Especifica el número de asignadores que Teradata Connector utiliza para extraer datos de Teradata Database.
hadoop_transfer_batch_size
(Opcional) Si se especifica batch_insert como el valor de hadoop_transfer_method, también se puede especificar este parámetro como un valor que represente el número de filas (por ejemplo, 10000, 50000). Esta propiedad no se aplica cuando se especifica internal_fastload como el valor de hadoop_transfer_method.
hadoop_transfer_method
(Opcional) Método que utiliza el conector de Teradata para transferir datos de Hadoop a Teradata.
source_hadoop_file_system_url | target_hadoop_file_system_url
Los valores especificados para estos parámetros deben comenzar por http:// e ir seguidos del nombre del sistema, o bien de la dirección IP y el número de puerto. Si el mecanismo de inicio de sesión es kerberos, el nombre de host debe ser el nombre de dominio completo.
Valor Descripción
http://webhdfs:50070 o http://httpfs:14000 Recupera el archivo de configuración almacenado en HDFS para ejecutar trabajos de TDCH y registros generados mediante trabajos del conector de Teradata para Hadoop. Especifique WebHDFS REST URL o HttpFS REST URL. El puerto por defecto para WebHDFS es 50070. El puerto por defecto para HttpFS es 14000.
source_hadoop_oozie_url | target_hadoop_oozie_url
Los valores especificados para estos parámetros deben comenzar por http:// e ir seguidos del nombre del sistema, o bien de la dirección IP y el número de puerto. Si el mecanismo de inicio de sesión es kerberos, el nombre de host debe ser el nombre de dominio completo.
Valor Descripción
http://oozie:11000 Ejecuta consultas de Hive y trabajos de transferencia de datos del conector de Teradata para Hadoop (TDCH). Para construir la URL, reemplace oozie por el nombre del sistema en el que reside el servidor de Oozie. El puerto por defecto de Oozie es el 11000.
source_hadoop_webhcat_url | target_hadoop_webhcat_url
Los valores especificados para estos parámetros deben comenzar por http:// e ir seguidos del nombre del sistema, o bien de la dirección IP y el número de puerto. Si el mecanismo de inicio de sesión es kerberos, el nombre de host debe ser el nombre de dominio completo.
Valor Descripción
http://webhcat:50111 Recupera metadatos, tales como bases de datos, tablas, columnas, etc. Para construir la URL, reemplace webhcat por el nombre del sistema en el que reside el servidor de WebHCAT. El puerto por defecto de WebHCAT es el 50111.
source_hive_logon_mechanism | target_hive_logon mechanism
El protocolo de seguridad para iniciar sesión en el sistema de archivos Hadoop de origen o destino. Los valores disponibles son default y kerberos.
source_hive_password | target_hive_password
Contraseña del usuario que tiene acceso a las tablas en el sistema de archivos Hadoop de origen o de destino.
Si el mecanismo de inicio de sesión es default, este parámetro es opcional. Si el mecanismo de inicio de sesión es kerberos, este parámetro es necesario y debe ser la contraseña del hive_user.
source_hive_password_encrypted | target_hive_password encrypted
La contraseña cifrada del usuario que tiene acceso a las tablas en el sistema de archivos Hadoop de origen o destino. No es un parámetro válido si también se especifica source_hive_password | target_hive_password.
Si el mecanismo de inicio de sesión es default, este parámetro es opcional. Si el mecanismo de inicio de sesión es kerberos, este parámetro es necesario y debe ser la contraseña del hive_user.
source_hive_user | target_hive_user
Nombre del usuario que tiene acceso a las tablas en el sistema de archivos Hadoop de origen o de destino.
Cuando el mecanismo de inicio de sesión es kerberos, el valor del usuario de Hive debe cumplir la siguiente convención: kerberos_principal@kerberos_realm