Tabla de contenido:

¿Cuáles son los principales parámetros de configuración que el usuario debe especificar para ejecutar el trabajo MapReduce?
¿Cuáles son los principales parámetros de configuración que el usuario debe especificar para ejecutar el trabajo MapReduce?

Video: ¿Cuáles son los principales parámetros de configuración que el usuario debe especificar para ejecutar el trabajo MapReduce?

Video: ¿Cuáles son los principales parámetros de configuración que el usuario debe especificar para ejecutar el trabajo MapReduce?
Video: MapReduce con Hadoop #3: Contando palabras con Map Reduce y Java 2024, Abril
Anonim

Los principales parámetros de configuración que los usuarios deben especificar en el marco "MapReduce" son:

  • Trabajos ubicaciones de entrada en el sistema de archivos distribuido.
  • Trabajos ubicación de salida en el sistema de archivos distribuido.
  • Formato de entrada de datos.
  • Formato de salida de datos.
  • Clase que contiene la función de mapa.
  • Clase que contiene la función de reducción.

Aquí, ¿cuáles son los principales parámetros de configuración en un programa MapReduce?

Los principales parámetros de configuración en el marco "MapReduce" son:

  • Ingrese la ubicación de los trabajos en el sistema de archivos distribuido.
  • Ubicación de salida de trabajos en el sistema de archivos distribuido.
  • El formato de entrada de datos.
  • El formato de salida de los datos.
  • La clase que contiene la función de mapa.
  • La clase que contiene la función de reducción.

También se puede preguntar, ¿cuáles son los parámetros de los mapeadores y reductores? Los cuatro parámetros para los mapeadores son:

  • LongWritable (entrada)
  • entrada de texto)
  • texto (salida intermedia)
  • IntWritable (salida intermedia)

También la pregunta es, ¿cuáles son los componentes principales del trabajo MapReduce?

  • Clase de controlador principal que proporciona parámetros de configuración del trabajo.
  • Clase de asignador que debe extender org. apache. hadoop. Mapa reducido. Mapper y proporciona implementación para el método map ().
  • Clase reductora que debería extender org. apache. hadoop. Mapa reducido. Clase reductora.

¿Qué es el particionador y cómo ayuda en el proceso de trabajo de MapReduce?

Particionador en Trabajo MapReduce La ejecución controla la partición de las claves de las salidas de mapas intermedias. Con el ayuda de la función hash, la clave (o un subconjunto de la clave) deriva el dividir . Los registros que tienen el mismo valor de clave entran en el mismo dividir (dentro de cada mapeador).

Recomendado: