Antes de utilizar el conector de Spark SQL (iniciador o destino), el administrador de Hadoop debe crear el directorio hdfs:///tdqg-spark/. En este directorio se almacenan los siguientes archivos:
- Un archivo de texto ficticio creado por el conector de Spark SQL cuando se usa por primera vez y es necesario para que funcione este conector.
- Los archivos de caché para los objetos de servidor externo definidos por el usuario y utilizados por el iniciador de Spark SQL.
- Archivos temporales al ejecutar el conector de destino mediante el Spark Application Execution Mechanism.
Todos los usuarios que accedan al conector de Spark SQL (iniciador o destino) deben tener permiso de acceso de escritura en el directorio.
- Inicie sesión en cualquier nodo de Hadoop.
- Cree el directorio tdqg-spark:hdfs dfs -mkdir /tdqg-spark/
- Especifique los permisos como en el ejemplo siguiente:hdfs dfs -chmod 777 /tdqg-spark/El permiso 777 es un ejemplo. Los permisos reales los determina el administrador de Hadoop, siempre y cuando se cumplan los requisitos para crear el directorio.