티스토리 뷰
[업데이트 2017.03.21 10:42]
Windows에서 Standalone Cluster 실행하는 방법에 대한 포스팅입니다.
1. Master Node 실행
C:\spark-2.1.0\bin>spark-class.cmd org.apache.spark.deploy.master.Master
다음과 같이 master node에 대한 web UI(기본적으로 http://localhost:8080으로 실행됩니다)를 접속하여 정상적으로 master node가 실행 되었는지 확인 할 수 있습니다. 또는 다음과 같이 특정 IP/Port를 지정하여 실행 할 수 있습니다.
C:\spark-2.1.0\bin>spark-class.cmd org.apache.spark.deploy.master.Master -i 192.168.0.1 -p 7077
2. Worker Node 실행
이제 다른 PC 또는 local PC에서 worker node를 실행합니다. 실행 시 master node url를 파라메터로 넘겨줍니다. (spark://{Host}/{Port})
C:\spark-2.1.0\bin>spark-class.cmd org.apache.spark.deploy.worker.Worker spark://192.168.56.1:7077
다음과 같이 worker node가 추가 되었음을 확인 할 수 있습니다.
3. Zeppelin과 Spark Standalone Cluster 연동
이제 Zeppelin > Interpreters > Spark의 master property 항목에 spark master node url을 설정합니다.
이제 Zeppelin notebook에서 Spark interpreter를 실행 시 다음과 같이 실행중인 application으로 zeppelin이 등록됨을 알 수 있습니다.
4. Spark Shell 실행
아래와 같이 master node를 지정하여 Spark Shell도 실행 할 수 있습니다.
C:\spark-2.1.0\bin>spark-shell.cmd --master spark://192.168.56.1:7077
* 추가 업데이트 : oracle db 연동 등을 위해 jar 파일을 SPARK_HOME\jars에 복사후 master/worker node 실행. Zeppelin과 연동시 Spark interpreter도 재시작.
* 참고: https://www.youtube.com/watch?v=bQuoDgz9UMw
* 참고: http://spark.apache.org/docs/latest/spark-standalone.html#starting-a-cluster-manually
- Total
- Today
- Yesterday
- Badge
- GOD
- Mask R-CNN
- Game Engine
- #ApacheZeppelin
- Physical Simulation
- Library
- aws #cloudfront
- Memorize
- ate
- ILoop Engine
- Jekyll and Hyde
- project
- Meow
- #ELK Stack
- #ApacheSpark
- Worry
- English
- 도커
- belief
- sentence test
- docker
- Ragdoll
- 2D Game
- OST
- some time ago
- #TensorFlow
- #REST API
- Sea Bottom
- SSM
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |