Propósito
El comando edit modifica una definición de trabajo existente. Todas las ejecuciones de trabajo anteriores se enlazarán con la nueva definición de trabajo.
Todos los parámetros de esta sección son específicos de la interfaz de línea de comandos.
Sintaxis
Parámetros: específicos para Hadoop
Estos parámetros son específicos del comando edit para Hadoop cuando se usa la interfaz de línea de comandos y son comunes en transferencias de Teradata a Hadoop y de Hadoop a Teradata.Consulte Orden de parámetros.
- hadoop_file_delimiter
- [Opcional] Especifica un delimitador de caracteres para columnas. Si no se especifica, la coma (",") se utiliza como delimitador. Esta opción solo se aplica si hadoop_file_option se define como Text.
- hadoop_file_option
- [Opcional] Los valores compatibles con el conector de Teradata para Hadoop y T2H son:
- Text (predeterminado)
- RC
- ORC
- hadoop_number_mappers
- [Opcional] Especifica el número de asignadores que Teradata Connector utiliza para extraer datos de Teradata Database.
- hadoop_transfer_method
- (Opcional) Método que utiliza el conector de Teradata para transferir datos de Hadoop a Teradata.
- hadoop_transfer_batch_size
- (Opcional) Si se especifica batch_insert como el valor de hadoop_transfer_method, también se puede especificar este parámetro como un valor que represente el número de filas (por ejemplo, 10000, 50000). Esta propiedad no se aplica cuando se especifica internal_fastload como el valor de hadoop_transfer_method.
- source_hadoop_webhcat_url | target_hadoop_webhcat_url
- Los valores especificados para estos parámetros deben comenzar por http:// e ir seguidos del nombre del sistema, o bien de la dirección IP y el número de puerto. Si el mecanismo de inicio de sesión es kerberos, el nombre de host debe ser el nombre de dominio completo.
Valor Descripción http://webhcat:50111 Recupera metadatos, tales como bases de datos, tablas, columnas, etc. Para construir la URL, reemplace webhcat por el nombre del sistema en el que reside el servidor de WebHCAT. El puerto por defecto de WebHCAT es el 50111. - source_hadoop_file_system_url | target_hadoop_file_system_url
- Los valores especificados para estos parámetros deben comenzar por http:// e ir seguidos del nombre del sistema, o bien de la dirección IP y el número de puerto. Si el mecanismo de inicio de sesión es kerberos, el nombre de host debe ser el nombre de dominio completo.
Valor Descripción http://webhdfs:50070 o http://httpfs:14000 Recupera el archivo de configuración almacenado en HDFS para ejecutar trabajos de TDCH y registros generados mediante trabajos del conector de Teradata para Hadoop. Especifique WebHDFS REST URL o HttpFS REST URL. El puerto por defecto para WebHDFS es 50070. El puerto por defecto para HttpFS es 14000. - source_hadoop_oozie_url | target_hadoop_oozie_url
- Los valores especificados para estos parámetros deben comenzar por http:// e ir seguidos del nombre del sistema, o bien de la dirección IP y el número de puerto. Si el mecanismo de inicio de sesión es kerberos, el nombre de host debe ser el nombre de dominio completo.
Valor Descripción http://oozie:11000 Ejecuta consultas de Hive y trabajos de transferencia de datos del conector de Teradata para Hadoop (TDCH). Para construir la URL, reemplace oozie por el nombre del sistema en el que reside el servidor de Oozie. El puerto por defecto de Oozie es el 11000. - source_hive_logon_mechanism | target_hive_logon mechanism
- El protocolo de seguridad para iniciar sesión en el sistema de archivos Hadoop de origen o destino. Los valores disponibles son default y kerberos.
- source_hive_password | target_hive_password
- Contraseña del usuario que tiene acceso a las tablas en el sistema de archivos Hadoop de origen o de destino.
- source_hive_password_encrypted | target_hive_password encrypted
- La contraseña cifrada del usuario que tiene acceso a las tablas en el sistema de archivos Hadoop de origen o destino. No es un parámetro válido si también se especifica source_hive_password | target_hive_password.
- source_hive_user | target_hive_user
- Nombre del usuario que tiene acceso a las tablas en el sistema de archivos Hadoop de origen o de destino.