스파크 실행 APP이 코어 할당이 안 될 때는 어떻게 해야하나요?

조회수 401회

이미지

첨부한 사진처럼 워커는 정상적으로 ALIVE인 상태인데

cat /home/jmkim/test.spark | /home/jmkim/spark/bin/pyspark

해당 명령어로 실행 시키면 정상적으로 실행은 되는데 사진의 러닝 어플리케이션 리스트에서 Cores가 0으로 나옵니다;;; 구조는 스탠드 얼론으로 테스트중인데 왜 자동적으로 코어 할당이 되지 않을까요?

  • (•́ ✖ •̀)
    알 수 없는 사용자
  • 클러스터 환경이 아닌 local mode 라는 것이죠? 그러면 멀티쓰레드 형태로 동작합니다. 즉 코어는 다 사용합니다. 정영훈 2020.8.13 00:06
  • 삽집하다가 sbin에 있는 stop-all.sh 했다가 다시 동작해보니까 정상적으로 운영 되네요...앞단에 제가 설정을 뭘 잘 못했었나봐요 알 수 없는 사용자 2020.8.13 06:48

답변을 하려면 로그인이 필요합니다.

프로그래머스 커뮤니티는 개발자들을 위한 Q&A 서비스입니다. 로그인해야 답변을 작성하실 수 있습니다.

(ಠ_ಠ)
(ಠ‿ಠ)