Установка Spark Cluster

Я следую этому руководству, чтобы установить спарк кластер. http://arnesund.com/2015/09/21/spark-cluster-on-openstack-with-multi-user-jupyter-notebook/

Я вручную копирую и вставляю все команды, так как столкнулся с несколькими проблемами, используя cloud-init.

Я не могу выполнить следующие команды из учебника:

Скачайте и распакуйте Spark

 curl -o /tmp/spark-$SPARK_VERSION-bin-hadoop1.tgz http://$APACHE_MIRROR/spark/spark-$SPARK_VERSION/spark-$SPARK_VERSION-bin-hadoop1.tgz
 tar xvz -C /opt -f /tmp/spark-$SPARK_VERSION-bin-hadoop1.tgz
 ln -s /opt/spark-$SPARK_VERSION-bin-hadoop1/ /opt/spark
 chown -R root.root /opt/spark-$SPARK_VERSION-bin-hadoop1/*

Вы можете посмотреть на эти команды по вышеупомянутой ссылке.

Любая помощь или предложение будут оценены. Спасибо!

1 ответ

Решение

$SPARK_VERSION, $APACHE_MIRROR являются переменными среды, поэтому просто скопируйте вставку, поскольку отдельные команды не будут работать.

Учебник, который вы указали выше, посвящен настройке кластера Spark на виртуальных машинах OpenStack.

Сначала напишите bash-скрипт, как показано в руководстве. (Init-spark-master.sh)

Тогда просто выполните это.

ОБНОВИТЬ--

Если вы заранее не установите переменные окружения, вы должны выполнить полные команды.

Например,curl -o /tmp/spark-apache.uib.no-bin-hadoop1.tgz http://apache.uib.no/spark/spark-1.5.0/spark-1.5.0-bin-hadoop1.tgzбудет работать без проблем.

Другие вопросы по тегам