Propósito
El comando move crea un trabajo para copiar los objetos de base de datos especificados de una base de datos en otra; a continuación, inicia el trabajo inmediatamente. Utilice el comando para crear e iniciar un trabajo rápidamente sin la lista de objetos XML especificando las tablas en la línea de comandos.Data Mover permite mover tablas desde Teradata Database hasta Hadoop; también podrá mover tablas de Hive desde Hadoop hasta Teradata Database.
Todos los parámetros de esta sección son específicos de la interfaz de línea de comandos.
Parámetros: específicos para Hadoop
Estos parámetros son específicos del comando move para Hadoop cuando se usa la interfaz de línea de comandos y son comunes en transferencias de Teradata a Hadoop y de Hadoop a Teradata.Consulte Orden de parámetros.
- hadoop_file_delimiter
- [Opcional] Especifica un delimitador de caracteres para columnas. Si no se especifica, la coma (",") se utiliza como delimitador. Esta opción solo se aplica si hadoop_file_option se define como Text.
- hadoop_file_option
- [Optional] Values supported by the Teradata Connector for Hadoop and T2H:
- Text (predeterminado)
- RC
- ORC
- hadoop_number_mappers
- [Opcional] Especifica el número de asignadores que Teradata Connector utiliza para extraer datos de Teradata Database.
- hadoop_transfer_batch_size
- (Opcional) Si se especifica batch_insert como el valor de hadoop_transfer_method, también se puede especificar este parámetro como un valor que represente el número de filas (por ejemplo, 10000, 50000). Esta propiedad no se aplica cuando se especifica internal_fastload como el valor de hadoop_transfer_method.
- hadoop_transfer_method
- (Opcional) Método que utiliza el conector de Teradata para transferir datos de Hadoop a Teradata.
- source_hadoop_file_system_url | target_hadoop_file_system_url
- Los valores especificados para estos parámetros deben comenzar por http:// e ir seguidos del nombre del sistema, o bien de la dirección IP y el número de puerto. Si el mecanismo de inicio de sesión es kerberos, el nombre de host debe ser el nombre de dominio completo.
Valor Descripción http://webhdfs:50070 o http://httpfs:14000 Recupera el archivo de configuración almacenado en HDFS para ejecutar trabajos de TDCH y registros generados mediante trabajos del conector de Teradata para Hadoop. Especifique WebHDFS REST URL o HttpFS REST URL. El puerto por defecto para WebHDFS es 50070. El puerto por defecto para HttpFS es 14000. - source_hadoop_oozie_url | target_hadoop_oozie_url
- Los valores especificados para estos parámetros deben comenzar por http:// e ir seguidos del nombre del sistema, o bien de la dirección IP y el número de puerto. Si el mecanismo de inicio de sesión es kerberos, el nombre de host debe ser el nombre de dominio completo.
Valor Descripción http://oozie:11000 Ejecuta consultas de Hive y trabajos de transferencia de datos del conector de Teradata para Hadoop (TDCH). Para construir la URL, reemplace oozie por el nombre del sistema en el que reside el servidor de Oozie. El puerto por defecto de Oozie es el 11000. - source_hadoop_webhcat_url | target_hadoop_webhcat_url
- Los valores especificados para estos parámetros deben comenzar por http:// e ir seguidos del nombre del sistema, o bien de la dirección IP y el número de puerto. Si el mecanismo de inicio de sesión es kerberos, el nombre de host debe ser el nombre de dominio completo.
Valor Descripción http://webhcat:50111 Recupera metadatos, tales como bases de datos, tablas, columnas, etc. Para construir la URL, reemplace webhcat por el nombre del sistema en el que reside el servidor de WebHCAT. El puerto por defecto de WebHCAT es el 50111. - source_hive_logon_mechanism | target_hive_logon mechanism
- El protocolo de seguridad para iniciar sesión en el sistema de archivos Hadoop de origen o destino. Los valores disponibles son default y kerberos.
- source_hive_password | target_hive_password
- Contraseña del usuario que tiene acceso a las tablas en el sistema de archivos Hadoop de origen o de destino.
- source_hive_password_encrypted | target_hive_password encrypted
- La contraseña cifrada del usuario que tiene acceso a las tablas en el sistema de archivos Hadoop de origen o destino. No es un parámetro válido si también se especifica source_hive_password | target_hive_password.
- source_hive_user | target_hive_user
- Nombre del usuario que tiene acceso a las tablas en el sistema de archivos Hadoop de origen o de destino.