스파크 실행 APP이 코어 할당이 안 될 때는 어떻게 해야하나요?
조회수 401회
첨부한 사진처럼 워커는 정상적으로 ALIVE인 상태인데
cat /home/jmkim/test.spark | /home/jmkim/spark/bin/pyspark
해당 명령어로 실행 시키면 정상적으로 실행은 되는데 사진의 러닝 어플리케이션 리스트에서 Cores가 0으로 나옵니다;;; 구조는 스탠드 얼론으로 테스트중인데 왜 자동적으로 코어 할당이 되지 않을까요?
-
(•́ ✖ •̀)
알 수 없는 사용자
댓글 입력