от
Пытаюсь получить список всех справочников в кластер Hadoop с файлами более 500000.Если родительский каталог насчитывает более 500000 файлов, то скрипт должен список вложенных каталогов и сделать файловую систему HDFS рассчитывать на них, чтобы определить каталог с более чем 500000 файлов и список подрубрике каталога в подкаталог и сделать подсчет, чтобы найти окончательный подкаталог с более чем 500 000 файлов. Это должно быть сделано для всего кластера, начиная с / HDFS в ДПП -ЛС / | команда grep '^д'| у awk '{печати $НФ}' | в то время как чтение строки | HDFS в ДПП -граф долл| на awk '$2 >500000 {печать $1,$2,$3,$4}' Здесь перечислены только поддиректории корня, нужно уметь делать на уровне подкаталог с 500000 опуская другие каталоги, с меньше файлы

Ваш ответ

Отображаемое имя (по желанию):
Конфиденциальность: Ваш электронный адрес будет использоваться только для отправки уведомлений.
Анти-спам проверка:
Чтобы избежать проверки в будущем, пожалуйста войдите или зарегистрируйтесь.
Добро пожаловать на сайт ByNets, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...