Logo ru.boatexistence.com

Как работают мапперы и редукторы?

Оглавление:

Как работают мапперы и редукторы?
Как работают мапперы и редукторы?

Видео: Как работают мапперы и редукторы?

Видео: Как работают мапперы и редукторы?
Видео: Редуктор давления 2024, Май
Anonim

Вывод Mapper или задания карты (пары ключ-значение) вводится в Редьюсер Редуктор получает пару ключ-значение из нескольких заданий карты. Затем редюсер объединяет эти промежуточные кортежи данных (промежуточную пару ключ-значение) в меньший набор кортежей или пар ключ-значение, который является конечным результатом.

Что делают мапперы и редукторы?

Hadoop Mapper - это функция или задача, которая используется для обработки всех входных записей из файла и создания выходных данных, которые используются в качестве входных данных для Reducer Он производит выходные данные, возвращая новые пары ключ-значение. … Преобразователь также генерирует небольшие блоки данных при обработке входных записей как пары ключ-значение.

В чем разница между маппером и редуктором?

В чем основная разница между Mapper и Reducer? Задача Mapper - это первая фаза обработки, которая обрабатывает каждую входную запись (из RecordReader) и генерирует промежуточную пару ключ-значение. Метод Reduce вызывается отдельно для каждой пары списка ключ/значение.

Как вы считаете количество картографов и редукторов?

Это зависит от того, сколько ядер и сколько памяти у вас есть на каждом подчиненном устройстве. Как правило, один картограф должен получать от 1 до 1,5 ядер процессоров Итак, если у вас 15 ядер, то можно запустить 10 картографов на узел. Таким образом, если у вас есть 100 узлов данных в кластере Hadoop, то в кластере можно запустить 1000 картографов.

Как работает функция Mapper?

Mapper - это функция, которая обрабатывает входные данные Mapper обрабатывает данные и создает несколько небольших фрагментов данных. Входные данные для функции сопоставления имеют форму пар (ключ, значение), хотя входные данные для программы MapReduce представляют собой файл или каталог (который хранится в HDFS).

Рекомендуемые: