데이터/Spark

[Spark] 6. Spark Execution Plan

김줘 2024. 12. 3. 01:20

Spark 실행 계획

  • Apache Spark는 분산 데이터 처리 엔진으로, 쿼리를 최적화하고 실행하기 위해 여러 단계를 거침
  • 그렇기에 Spark에서 작업이 어떻게 실행되는지 이해하는 것은 성능 최적화에 매우 중요!!

Transformation vs. Action

Transform

  • 기존 데이터를 기반으로 새로운 데이터를 정의하는 연산
  • 지연 실행(Lazy Execution) 방식으로 동작 -> 실제 계산은 Action이 호출될 때까지 실행 X
    • 지연 실행을 통해 실행 계획 최적화 가능
  • 종류
    • Narrow Dependencies : 다른 파티션의 데이터를 필요로 하지 않고, 각 파티션에서 독립적으로 작업을 수행할 수 있는 연산
      • 예시
        • select
        • filter
        • map
    • Wide Dependnecies : 여러 파티션에서 데이터를 가져와야 하며, 데이터가 클러스터 내에서 *shuffle 되어야 하는 연산
      • 예시
        • groupBy
        • reduceBy
        • repartition
        • partitionBy
      • *shuffle : 데이터의 재분배 또는 재정렬

Actions

  • 실제 계산을 트리거하는 연산
  • Action 호출 시, 지금까지 정의한 모든 Transformations 실행 -> 실제로 데이터를 계산하고 결과 반환
  • 예시
    • collect
    • show
    • write
    • count

Transformation & Action 예시

spark.read.option("header", True).csv("test.csv").
where("gender <> 'F'").
select("name", "gender").
groupBy("gender").
count().
show()

  • 실행 흐름
    • Narrow Dependencies
      1. where("gender <> 'F'"): 각 파티션에서 데이터를 필터링하는 작업
      2. select("name", "gender"): 열을 선택하는 작업, 파티션 내에서 독립적으로 처리 가능
    • Wide Dependency
      1. groupBy("gender"): 데이터를 그룹화하는 작업은 파티션 간 데이터 이동이 필요하므로 shuffle이 발생
    • Action
      1. count(): 카운트 작업은 실제 계산을 시작하게 하는 Action
      2. show(): 결과를 화면에 출력하는 Action

Job, Stage, Task

  • Action이 호출되면, Spark는 Job을 생성하고 이를 여러 Stage로 나눔
  • 각 Stage는 여러 Task로 나뉘며, Task는 병렬로 실행됨

Job

  • Job은 Spark가 수행해야 하는 전체 작업
  • Action이 호출되면 Job이 트리거
  • Job은 하나 이상의 Stage로 나누어지며, 각 Stage는 데이터를 Shuffle할 때 새로운 Stage로 나누어짐

Stage

  • Stage는 병렬로 실행할 수 있는 작업의 집합
  • Stage는 Shuffle이 필요한 경우에만 생성
  • 각 Stage는 DAG 형태로 작업을 구성하며, Stage 간의 순차적인 실행 필요

Task

  • 가장 작은 실행 단위로, 파티션에 대해 실행됨
  • 병렬 실행이 가능하며, Executor에서 실행됨

실행 흐름

  1. Action이 호출됨 (예: show(), collect())
  2. Spark는 Job을 생성
  3. Job은 여러 Stage로 나눠짐
  4. 각 Stage는 Task로 나뉘며, 병렬로 실행.
  5. Spark는 DAG 형태로 Task를 실행하며, Shuffle이 필요할 경우 Stage 간 데이터 이동이 발생

Spark 실행 계획 최적화 기법

  • 캐싱 : 중간 결과를 메모리에 저장하여 중복 계산 방지
  • 브로드캐스팅 : 작은 데이터를 클러스터 모든 노드에 전파하여 shuffle을 줄임
  • 파티셔닝 : 적절한 파티셔닝 전략을 사용하여 데이터 분배 최적화
    • Repartition : shuffle을 발생시켜 모든 데이터 재분배
    • Coalesce : 줄어드는 파티션 수만큼 데이터를 합치기 때문에 shuffle을 최소화하며, 주로 파티션 수를 줄일 때 사용
  • 파이프라이닝: narrow transformation을 합쳐서 하나의 stage로 처리해 불필요한 Stage 수 감소