Установка Spark на Ubuntu
Я устанавливаю Spark IM Client для Ubuntu.
Tar.gz не работает в ВСЕХ (учитывая /bin
каталог полностью пустой и не хватает важных вещей, таких как unpack200
) но у меня есть .deb
для 2.6.0. Это не последняя версия, но подойдет.
Проблема в том, что я не могу удовлетворить ее зависимость для sun-java6-jre
, Я уверен, что использование OpenJDK будет работать, мне просто нужно пройти через deb.
Как я могу это исправить? Могу ли я установить манекен sun-java6-jre
Пакет как-то, затем использовать OpenJDK? Или есть способ на самом деле установить sun-java6-jre
даже после всего этого безумия Ubuntu, удаляющего Sun/Oracle Java из их репозиториев?
2 ответа
Вики-страница java расскажет вам, как установить sun-java6-jre вручную, если вы решите это сделать. https://help.ubuntu.com/community/Java
32-битный
$ wget http://download.oracle.com/otn-pub/java/jdk/6u31-b04/jre-6u31-linux-i586.bin
$ chmod u+x jre-6u31-linux-i586.bin
$ ./jre-6u31-linux-i586.bin
$ sudo mv jre1.6.0_31 /usr/lib/jvm/
$ sudo update-alternatives --install "/usr/bin/java" "java" "/usr/lib/jvm/jre1.6.0_31/bin/java" 1
$ sudo update-alternatives --install "/usr/lib/mozilla/plugins/libjavaplugin.so" "mozilla-javaplugin.so" "/usr/lib/jvm/jre1.6.0_31/lib/i386/libnpjp2.so" 1
затем
$ sudo update-alternatives --config java
$ sudo update-alternatives --config mozilla-javaplugin.so
Я установил Spark 2.6.3 на 64-битную систему Ubuntu 13.10. Я установил Oracle Java 1.7, используя инструкции по установке Java (Шаг 2), найденные здесь.
Чтобы запустить Spark, потому что он поставляется с 32-битной JRE, мне пришлось изменить ./Spark
Сценарий, чтобы найти Oracle JRE, а также принять версию 1.7.
Изменения в строке 4 (закомментировано, добавлено расположение JRE):
INSTALL4J_JAVA_HOME_OVERRIDE = / USR / Библиотека / JVM / Java-7-оракула
Изменения в строке 95 (измените "6" на "7"):
if ["$ ver_minor" -gt "7"]; затем
Эти изменения должны быть сделаны правильно в сценарии установки Spark, чтобы Spark поддерживал более новые компьютеры.