4-3. 학습 생성

머신러닝에서의 학습은, 하나의 목적(ML Task)을 달성하기 위해 모델이 특정 설정(예: 학습 데이터, 하이퍼파라미터 등)을 바탕으로 한번의 학습 과정을 수행하는 단위입니다.

  1. 상단 메뉴에서 머신러닝 탭을 선택한 뒤, 실험 탭으로 이동하고 실험 목록에서 학습을 진행할 실험 카드를 클릭합니다.

  2. 실험 페이지에서 우측 상단의 학습 생성 버튼을 클릭합니다.

  3. 생성할 학습의 인공신경망을 설정한 후, 다음 단계 버튼을 클릭합니다.

    • 인공싱경망

      • 인공신경망 : 실험 목적에 해당하는 인공신경망만 목록에 노출됩니다. 인공신경망 추가버튼을 클릭하면 팝업창이 열리며, 이 중 하나의 신경망을 선택한 뒤 좌측 하단의 선택 완료 버튼을 클릭합니다.

        인공신경망을 변경해야 하는 경우, 우측의 인공신경망 변경버튼을 클릭한 후 실험 목적에서 원하는 인공신경망을 다시 선택하고 좌측 하단의 선택 완료버튼을 클릭하여 변경합니다.

    • 체크포인트 : 체크포인트는 모델 학습 중 특정 시점의 상태를 저장한 중간 결과 파일로, 학습을 이어서 진행하거나 성능을 비교할 때 사용됩니다.

      여기 체크포인트 설정에서는 이전에 진행된 학습에서 저장된 체크포인트를 검색하여 선택할 수 있습니다. 처음부터 학습을 시작하려는 경우에는 선택하지 않아도 됩니다.

  4. 생성할 학습의 데이터셋을 설정한 후, 다음 단계 버튼을 클릭합니다.

    • GT데이터셋 : 학습 생성 시에 활용할 GT데이터셋은 (Ground Dataset, GT Dataset) 인공지능 모델이 학습할 때 정답(참값)으로 사용하는 데이터입니다. 실험의 데이터 타입에 따라 사용할 수 있는 데이터셋만 필터링하여 목록에 노출됩니다.

    • 버전 : 학습 생성 시에 활용할 GT 데이터셋의 저장된 버전을 선택할 수 있습니다.

    • 구성 비율 : 선택한 데이터셋 버전의 학습 구성 비율이 그래프로 표기됩니다.

  5. 모델 학습에 사용되는 학습 파라미터 값을 설정한 후, 다음 단계 버튼을 클릭합니다.

    • 학습 파라미터 : 머신러닝 모델이 패턴을 학습하면서 조정하는 숫자(변수)를 의미합니다. (*선택한 인공신경망에 따른 학습 파라미터 설정값이 달라질 수 있습니다.)
      • Epochs : 전체 학습을 반복하는 단위를 의미하며, 최소 단위 1에서 최대 10000까지 조절 가능합니다.
      • Batch Size : 한 번의 학습에서 처리하는 데이터 개수를 의미합니다. 작은 배치는 정밀하지만 느리고 큰 배치는 빠르지만 일반화 성능이 떨어질 수 있습니다.
      • Learning Rate : 머신러닝 모델이 학습할 때, 가중치(Weight)를 얼마나 빠르게 업데이트할지 결정하는 값으로, 너무 크면 최적점을 놓치고 너무 작으면 학습이 느려짐집니다. 설정값은 최소 0.0001에서 최대 1 사이의 소수값으로 기재합니다.
      • Image Size : 이미지의 크기 설정 기능으로 320~1280의 픽셀 단위로 설정하여 모델의 성능과 자원 효율성을 향상 시킬 수 있습니다.
      • Momentum : 옵티마이저의 파라미터값으로, 적정값을 활용할 경우 학습속도를 높이고 안정성을 향상시킬 수 있습니다.
  6. 학습에 사용할 에이전트를 선택한 뒤, 다음 단계 버튼을 클릭합니다.

    • 에이전트 : 모델이 최적의 성능을 낼 수 있도록 학습을 관리하고 지원하는 역할을 합니다.
      • 에이전트 선택 : 목록에서 사용할 에이전트를 선택할 수 있으며, 에이전트의 연동 상태 및 정보는 더보기 >버튼을 클릭하여 확인할 수 있습니다.

  7. 학습 정보를 입력한 후, 생성버튼을 클릭하여 학습을 생성합니다.

    • 학습 명 : 학습의 이름을 기입합니다. 다른 학습과 중복되지 않도록 구분 가능한 이름으로 작성해주세요. (최대 50자 입력 가능)

    • 설명 : 학습에 대한 설명을 기입합니다. (최대 200자 입력 가능)


학습 상세

  1. 생성 버튼을 클릭하면 학습이 시작되며, 학습 상세 화면으로 이동합니다.
    이 곳에서는 해당 데이터셋의 학습 진행률, 상태, 소요 시간 등 학습 정보를 실시간으로 확인할 수 있습니다. 학습이 진행되면, 학습 손실(Loss) 및 평가 지표(mAP 등) 그래프가 실시간으로 표시되며, 예측 결과가 시각화된 이미지와 함께 제공되어 모델의 성능을 확인할 수 있습니다. 또한, 로그와 메시지 기록을 통해 전체 학습 과정을 세부적으로 검토할 수 있습니다.

    • 학습 정보 : 학습 이름, 학습 설명, 학습 실행자, 학습 실행 일시 등 기본 정보가 상단에 제공됩니다.
      • 학습 진행률 : 전체 학습 단계 중 현재까지 진행된 비율을 백분율(%)로 표시하여 나타냅니다.
      • 학습 상태 : 현재 학습이 어떤 상태에 있는지를 나타냅니다. (성공/실패/진행중)
      • 총 소요시간 : 학습을 시작한 시점부터 현재까지 소요된 총 시간입니다. 실시간으로 누적되며, 최종적으로 전체 학습에 걸린 시간을 확인할 수 있습니다.
    • 요약
      • 인공신경망 : 학습에 사용된 인공신경망과 하이퍼파라미터, 체크포인트 등의 설정 값에 대한 정보를 제공합니다.
      • 데이터셋 : 학습에 사용된 데이터셋의 이름과 버전, 학습 구성비를 나타냅니다.
      • 에이전트 : 학습에 사용된 에이전트의 이름과 상태에 대한 정보를 볼 수 있습니다. 에이전트는 클라우드 환경의 작업 노드 혹은 온프레미스 학습 서버일 수 있습니다.
    • Message Log(메시지 기록)
      • 학습진행 : 학습 중 발생하는 로그 메시지를 초단위로 제공합니다.
    • Train Metrics : 학습 구성 요소 중 하나인 학습용 데이터(Train)에 대한 진행도를 실시간으로 확인할 수 있습니다. 학습이 진행됨에 따라 반복 횟수(Iteration/epoch)별 수치 변화가 그래프로 시각화되며, 선택한 인공신경망에 따라 다양한 지표(Metrics)가 노출됩니다.
      • Box Loss : 예측된 바운딩 박스가 실제 객체의 위치와 얼마나 차이가 있는지를 나타내는 손실 값입니다.
      • Class Loss : 객체 분류 오류에 대한 손실 값입니다.
      • DFL Loss : 바운딩 박스의 위치 예측을 정밀하게 하기 위해 사용하는 손실 함수입니다.
      • Segmentation Loss : 세그멘테이션 작업에서 실제 마스크와 예측 마스크 간의 차이를 측정하는 손실 값입니다.
    • Validation Metrics
      • Bounding Box_mAP50 : 검증 데이터에 대해 모델이 얼마나 정확히 객체를 검출했는지를 나타내는 지표입니다. mAP50은 IoU(Intersection over Union)가 0.5 이상일 때의 평균 정밀도(Mean Average Precision)를 의미합니다.값이 높을수록 성능이 우수합니다.
    • 시각화 : 학습 또는 검증 결과를 시각적으로 확인할 수 있는 기능입니다. 반복 횟수(Iteration/epoch)별로 학습 결과에 따른 검증 결과를 시각화하여 제공합니다. 각 이미지를 클릭하면, 해당 반복 횟수에 대한 전체 검증 결과를 시각화하여 볼 수 있습니다. (* 플러그인이 시각화 정보를 제공하는 경우에만 노출됩니다.)
    • Logs : 시스템에서 기록된 전반적인 로그 데이터를 의미합니다. 학습 외에도 데이터 로딩, 저장, 오류 발생, 시스템 상태 등의 상세 로그가 포함될 수 있습니다.
  2. 완료된 학습은 우측 상단의 모델 등록버튼을 통해 Synapse에 모델로 등록하여 재학습(Fine-tuning) 등 다양한 용도로 활용할 수 있습니다. 또한, 모델 다운로드버튼을 클릭하면 모델이 파일 형식으로 저장되어 다른 로컬 환경이나 외부 스토리지에서도 사용할 수 있습니다.

🤔

학습을 완료한 모델이 보이지 않아요!

완료된 학습은 Synapse에 모델로 등록해야 모델탭에서 확인이 가능합니다.

모델로 등록하지 않은 학습은 상단 메뉴의 머신러닝 탭에 있는 실험 탭에서, 해당 학습이 포함된 실험 카드를 선택해 들어가면 학습 목록에서 확인할 수 있습니다. 학습 이름을 클릭하면 학습 상세 페이지로 이동하며, 이곳에서 모델 등록과 다운로드를 진행할 수 있습니다.