AI 모델 학습 관리 시스템

학습 데이터 관리 / 모델 학습 / 테스트 v6.9.1

DB ... SLM ... Lang ... Mobile App Install

DB 연결 설정

HH:MM (예: 01:00, 05:45)
알림 (0건)
알림 없음
-

📡 서비스 상태

로딩중...

🤖 모델 현황

로딩중...

📊 오늘의 통계

로딩중...

-
서비스상태주기마지막 실행상세
로딩중...
-
로딩중...
시간유형상세
날짜와 유형을 선택 후 조회하세요

학습 데이터 현황

📚 AI 챗봇의 학습 문장을 관리합니다. 인텐트별로 예시 문장을 추가/삭제하면 다음 재학습 시 반영됩니다.
이렇게 사용하세요
  • 인텐트(Intent): 사용자 질문의 의도 분류 코드입니다. 예) equipment.utilization = 설비 가동률 조회
  • 학습 문장: 해당 인텐트로 분류되어야 할 예시 문장입니다
  • 인텐트 필터를 선택하면 해당 분류의 문장만 볼 수 있습니다
  • 문장을 삭제하면 다음 재학습 시 반영됩니다
인텐트학습 문장수정삭제

학습 데이터 추가

인텐트를 선택하고 예시 문장을 입력하면 학습 데이터에 추가됩니다. 다양한 표현을 추가할수록 챗봇 정확도가 올라갑니다.
이렇게 사용하세요

학습 데이터란? 챗봇이 사용자 질문의 의도를 파악하기 위해 학습하는 예시 문장입니다.

좋은 문장 작성 요령:

  • 실제 현장에서 사용하는 자연스러운 표현으로 작성 (예: "오늘 가동률 어때?")
  • 같은 의도라도 다양한 표현을 추가하면 정확도가 올라갑니다
  • 너무 짧은 단어(1~2글자)보다는 문장 형태가 좋습니다
확인 중...

일괄 추가

한 줄에 하나씩, 형식: __label__인텐트코드 학습문장
예시: __label__equipment.utilization 설비 가동률 확인해줘 → "설비 가동률 확인해줘"를 가동률 조회 의도로 학습


CSV 가져오기 / 내보내기

CSV 형식: intent,text (헤더 포함). 엑셀에서 편집 후 업로드 가능.

모델 재학습

🧠 학습 데이터를 수정한 후 재학습 실행 버튼을 클릭하면 새 AI 모델이 생성됩니다. 기존 모델은 자동 백업됩니다.
이렇게 사용하세요

FastText 모델: 사용자 질문 문장을 30가지 의도(인텐트)로 분류하는 AI 모델입니다.

재학습 과정 (6단계):

  1. 현재 모델 자동 백업
  2. 학습 데이터 로드 + 데이터 증강 (선택)
  3. FastText 모델 학습 (아래 파라미터 적용)
  4. 정확도 평가 (전체 데이터 기준)
  5. 새 모델 저장 → 즉시 적용
  6. 학습 이력에 기록

파라미터 권장값: 기본값(에포크 50, 학습률 0.5, N-gram 2, 차원 100)이 대부분 상황에서 최적입니다. 정확도가 낮을 때만 조정하세요.

학습 데이터를 수정한 후 재학습을 실행하면 새 모델이 생성됩니다. 기존 모델은 자동 백업됩니다.

학습 반복 횟수. 높을수록 정확하지만 느려집니다. 기본 50 권장
한 번에 얼마나 크게 배울지. 기본 0.5 권장, 너무 크면 불안정
단어 조합 범위. 한국어는 2~3 권장 (예: 2=두 단어씩 묶어서 학습)
모델 벡터 크기. 100이 속도와 정확도의 균형점
체크하면 학습 시 동의어를 자동으로 치환하여 데이터를 늘립니다

학습 중... 잠시 기다려 주세요.

모델 테스트

🔍 문장을 입력하면 AI가 어떤 의도(인텐트)로 분류하는지 확인할 수 있습니다. 신뢰도가 낮으면 학습 데이터를 추가하세요.
이렇게 사용하세요

테스트 방법: 문장을 입력하면 모델이 어떤 의도로 분류하는지 확인할 수 있습니다.

결과 읽는 법:

  • 가장 위의 결과가 모델이 예측한 의도입니다 (→ 표시)
  • 오른쪽 %는 신뢰도(확신 정도)입니다

신뢰도 등급:

  • 80% 이상 = 높음 (정확한 분류)
  • 50~80% = 보통 (맞을 수 있지만 애매)
  • 50% 미만 = 낮음 (학습 데이터 추가 필요)

일괄 테스트

학습 이력

📅 모델 학습 기록과 정확도 추이를 확인합니다. 90% 이상이면 우수, 80% 미만이면 데이터 추가가 필요합니다.
이렇게 사용하세요

정확도 의미:

  • 90% 이상 = 우수 (충분한 학습 데이터)
  • 80~90% = 양호 (실사용 가능, 데이터 추가 시 향상)
  • 80% 미만 = 개선필요 (학습 데이터 부족 또는 파라미터 조정 필요)

각 항목 설명:

  • 데이터수: 학습에 사용된 전체 문장 수
  • 모델크기: 생성된 모델 파일 크기 (KB)
  • 설정: 학습 시 사용된 파라미터 값

모델 파일

성능 분석

📈 모델 학습 정확도 추이인텐트별 학습 문장 분포를 시각화합니다.

정확도 추이

인텐트별 문장 수

SP (Stored Procedure) 설정

🗄 DB별로 챗봇 SP(Stored Procedure)를 관리합니다. DB 선택 → 인텐트 → SP 편집 순서로 사용하세요.
이렇게 사용하세요

sql_queries.json의 3계층 상속 구조(default → DB별 오버라이드)를 관리합니다.

  • default: 공통 SP 호출 (모든 DB에서 동일 SP명 사용). EXEC AI_CHAT_xxx %s 형태
  • FACTORYVERSE / ActiveMCN: 해당 DB 전용 오버라이드. 테이블 구조 차이 시 SP 내부 로직만 다르게 생성
  • DB별 레이어에 등록된 쿼리가 있으면 우선 사용, 없으면 default 쿼리를 사용합니다

편집 흐름: 왼쪽에서 DB와 인텐트를 선택 → 오른쪽에서 sub_key별 쿼리 편집 → [저장]

로딩 중...

테이블 관리

📊 DB 테이블을 등록하면 AI가 자동으로 스키마 분석, 프로파일링, 이상탐지를 수행합니다. [등록] → [AI분석] → [상세] 순서로 사용하세요.
이렇게 사용하세요

5단계 사용법:

  1. 테이블 선택: DB 테이블 목록에서 분석할 테이블을 선택합니다
  2. 등록: 표시명과 설명을 입력하고 [등록] 클릭 → 자동으로 스키마/프로파일/규칙 생성
  3. AI 분석: [AI분석] 버튼으로 앙상블 이상탐지 실행
  4. 상세 확인: [상세] 버튼으로 스키마, 프로파일, 검증 규칙 확인
  5. 교차 검증: 여러 테이블 간 외래키 관계를 자동 검증 (고아 레코드 탐지)

분석 결과 용어 설명:

  • 이상치(Anomaly): 정상 패턴에서 벗어난 데이터
  • 오염율: 전체 데이터 중 이상 데이터 비율
  • 롤링 윈도우: 시계열 데이터의 이동 평균/표준편차 등 통계 피처
  • FFT: 주파수 분석 (센서/가공 데이터에서 주기적 패턴 추출)
  • 앙상블: 여러 AI 모델이 투표하여 최종 이상 여부 결정 (오탐 감소)

DB 테이블을 등록하면 AI가 자동으로 스키마 발견, 데이터 프로파일링, 검증 규칙 생성, 교차 검증을 수행합니다.

테이블 등록

등록된 테이블

분석 중...
테이블명DB유형표시명컬럼수행수 규칙수상태작업

교차 검증 결과

SQL/SP 기반 알림 규칙을 정의하세요. anomaly=결과 있으면 알림, report=무조건 발송.
ID이름타입DB스케줄채널상태마지막 실행결과작업
로딩 중...
📋 알림 규칙 실행 내역을 확인하고 관리합니다.
시간규칙타입DB결과건수발송상태오류
로딩 중...
🔬 125개 AI 분석 모델을 카테고리별로 탐색하고, 구현된 모델로 프로파일을 만들어 분석을 실행할 수 있습니다.
🔬 분석 대상(테이블/컬럼), 키(설비/공구), 마스터(설비명/TAG명), AI 모델, 이상 기준을 설정하여 분석을 실행합니다.
ID이름모델DB테이블스케줄상태마지막 실행작업
로딩 중...
📋 AI 분석 프로파일의 실행 이력을 확인합니다.
시간프로파일모델이상건수상태소요시간
로딩 중...

AI 이상감지

ID시간설비이상컬럼타입 심각도상태추정원인작업

텔레그램 알림 설정

Step 1 봇 토큰 설정 → Step 2 수신자 등록 → Step 3 그룹 등록 → 테스트 전송 순서로 진행하세요.

설비 이상 감지 시 텔레그램으로 자동 알림을 받을 수 있습니다. 개인/그룹 모두 등록 가능합니다.

텔레그램 봇 만드는 방법
  1. 텔레그램에서 @BotFather 검색 후 대화 시작
  2. /newbot 명령어 입력 → 봇 이름, 사용자명 설정
  3. 발급된 Bot Token을 아래 Step 1에 입력
  4. 개인 수신: 봇에게 아무 메시지 전송 후 https://api.telegram.org/bot{토큰}/getUpdates 에서 chat.id 확인
  5. 그룹 수신: 그룹에 봇 초대 → 그룹에서 아무 메시지 → 위 URL에서 그룹 chat.id 확인 (보통 -100xxxx)

Step 1. 봇 토큰 설정

Step 2. 개인 수신자 등록 (USERS 테이블)

DB의 USERS 테이블에서 활성 사용자를 불러옵니다. Chat ID를 입력하면 해당 사용자에게 알림이 발송됩니다.

사용자ID이름라인전화번호Chat ID작업

Step 3. 그룹 채팅 등록

텔레그램 그룹에 봇을 초대하면 그룹원 전체에게 알림을 보낼 수 있습니다.

그룹명Chat ID등록일작업

알림 메시지 예시

🏭 공장 AI 모니터링 알림
━━━━━━━━━━━━━━━
⏰ 2026-02-23 14:30:00
📊 총 3건 (🔴위험 1 / 🟡경고 2)
━━━━━━━━━━━━━━━
[긴급] 1건의 위험 상황 감지!
  - 라인1 가동률 저하: 현재 45.0%
[경고] 2건의 주의 상황
  - 라인2 장시간 알람: MCN-005

이메일 알림 설정

📧 SMTP 서버 설정 후, 개인/그룹 수신자를 등록하고 테스트 전송으로 확인하세요.

설비 이상 감지 시 이메일로 자동 알림을 받을 수 있습니다. SMTP 서버 설정 후 개인/그룹 수신자를 등록하세요.

Step 1. SMTP 서버 설정

Step 2. 개인 수신자 등록 (USERS 테이블)

DB의 USERS 테이블에서 활성 사용자를 불러옵니다. 이메일을 입력하면 해당 사용자에게 알림이 발송됩니다.

사용자ID이름라인이메일작업

Step 3. 그룹 메일 등록

메일링 리스트 주소나 팀 공용 이메일을 등록하면 그룹 전체에 알림을 보낼 수 있습니다.

그룹명이메일 주소등록일작업

웹 푸시 (웹훅) 관리 - 개인/그룹 타겟팅

🔔 Push 서버 URL 설정 → 수신자 등록그룹 웹훅 등록 순서로 진행합니다. Dead Letter Queue에서 실패 이력을 확인하세요.

이상 감지 시 등록된 웹훅 URL로 JSON 알림을 POST합니다. 텔레그램/이메일처럼 개인(USERS DB) + 그룹(config) 이중 구조로 타겟팅합니다.

Step 1. Push 서버 URL 설정

개인/그룹 알림 전송에 사용할 메인 Push 서버 URL을 설정합니다. 모든 웹훅 알림이 이 URL로 POST됩니다.

Step 2. 개인 수신자 관리 (USERS DB)

웹훅 수신을 원하는 사용자를 체크하면, 이상 감지 시 해당 사용자에게 개별 알림이 전송됩니다.

Step 3. 그룹 웹훅 등록

부서/팀별 그룹을 만들고 수신 사용자를 선택합니다. 그룹 알림은 선택된 사용자에게 Push 서버를 통해 전송됩니다.

Push 서버 상태 & Dead Letter Queue

시각URL에러상태

ntfy Push 알림 설정

📱 Step 1 서버 연결 → Step 2 토픽 관리 → Step 3 사용자 구독 → 테스트 전송 순서로 진행하세요.

ntfy는 오픈소스 Push 알림 서비스입니다. 모바일 앱(Android/iOS)으로 실시간 공장 알림을 수신할 수 있습니다. [ntfy.sh 공식 사이트]

ntfy 사용 방법
  1. 자체 서버: ntfy 바이너리 설치 후 ntfy serve 실행 (기본 포트 8090)
  2. 공개 서버: https://ntfy.sh 사용 가능 (별도 설치 불필요)
  3. 모바일 앱 설치: Android / iOS
  4. 앱에서 토픽을 구독하면 실시간 Push 알림 수신

Step 1. 서버 연결 설정

Step 2. 토픽 관리

알림 유형별 토픽을 등록합니다. 사용자는 ntfy 앱에서 원하는 토픽만 구독할 수 있습니다.

토픽표시명설명등록일작업

Step 3. 사용자별 토픽 구독

각 사용자가 구독할 토픽을 선택합니다. 선택된 토픽의 알림만 해당 사용자에게 발송됩니다.

Step 4. 테스트 전송

Step 5. 모바일 앱 설정

모바일 앱(APK/PWA)에서 자동 적용되는 설정입니다. 사용자가 로그인하면 이 설정이 자동으로 전달됩니다.

설치 안내 페이지 열기
설치 QR 코드

QR 생성 버튼을 클릭하세요

ntfy 알림 예시 (모바일)

n factory-alert 14:30
Factory AI - 3 alerts (1 critical, 2 warning)
[CRITICAL] Line1 utilization low: 45.0%
[WARNING] Line2 alarm: MCN-005
[WARNING] Line3 downtime spike

알림 발송 이력

시간채널건수수신자내용 요약
로딩 중...

레포트 자동 생성 스케줄

📅 레포트를 선택하고, 수신자와 생성 주기를 설정한 뒤 스케줄 저장하세요. 설정된 시간에 자동 생성 + 이메일 발송됩니다.

등록된 스케줄

오타 사전 관리 (한국어 + 영어)

오타 → 교정값 매핑을 추가하면 챗봇이 자동으로 오타를 교정합니다. 도메인 용어를 알려진 단어에 추가하면 교정 정확도가 올라갑니다.

챗봇이 사용자 입력의 오타를 자동 교정할 때 사용하는 사전을 관리합니다. 변경 즉시 챗봇에 반영됩니다.

이렇게 사용하세요

오타 사전: 사용자가 자주 틀리는 단어 → 올바른 단어 매핑입니다.

알려진 단어: 오타 교정 시 "올바른 단어"로 인식되는 목록입니다. 새로운 도메인 용어를 추가하면 오타 교정 정확도가 올라갑니다.

예시: "가동율" → "가동률", "서비" → "설비"

영어도 동일하게 관리됩니다: "utlization" → "utilization"

한국어 오타 사전

오타교정값삭제

한국어 알려진 단어

채팅 테스트

💬 실제 챗봇 API(8001)에 질문을 보내 전체 파이프라인 결과를 확인합니다. 피드백을 남기면 AI 개선에 반영됩니다.

챗봇 API(8001)에 직접 질문을 보내 전체 파이프라인 결과를 확인하고 피드백을 남깁니다.

학습 문장:

최근 테스트 이력

시간질문의도신뢰도피드백코멘트

SP 관리

📝 의도별로 어떤 SP(Stored Procedure)를 호출할지 설정합니다. SP 결과가 챗봇 응답에 사용됩니다. 파라미터 매핑으로 자연어에서 값을 추출합니다.

의도별 SP 호출을 편집하고 테스트 실행할 수 있습니다.

의도별 SP 관리

3계층 구조: default(기본 SP) → DB별 오버라이드 (FACTORYVERSE/ActiveMCN). 모든 인텐트는 EXEC SP 호출. DB별 SP 내부 로직만 다름.

응답 설정 (다국어)

🌐 인텐트별 메시지 템플릿을 편집합니다. {변수} 플레이스홀더가 실제 값으로 치환됩니다. 응답 언어는 상단 헤더에서 설정합니다.

인텐트별 메시지 템플릿을 편집합니다. 설정은 서버 재시작 후에도 유지됩니다.

인텐트별 응답 메시지

시스템 메시지

도움말:
  • {variable} 형태의 플레이스홀더는 실제 값으로 치환됩니다 (예: {line_cd}, {rate}, {period})
  • 플레이스홀더를 삭제하면 해당 정보가 응답에 표시되지 않습니다
  • \ 은 줄바꿈으로 처리됩니다
  • 변경 사항은 저장 즉시 챗봇에 반영됩니다 (서버 재시작 불필요)

파라미터 매핑

자연어에서 추출할 파라미터 별칭(alias)을 관리합니다. 왼쪽에서 파라미터를 선택하세요.

배치 테스트

🧪 인텐트별 샘플 문장 1개씩으로 전체 파이프라인을 일괄 테스트합니다. AI 서버(8001)가 실행 중이어야 합니다.

각 인텐트에서 대표 문장 1개를 챗봇 API(8001)에 보내 예측 결과를 비교합니다.

예상 인텐트테스트 문장예측 인텐트신뢰도결과
테스트 실행 버튼을 클릭하세요

엔진 매핑

AI 엔진(SPC, 예측정비, 품질 등)과 채팅 인텐트를 매핑합니다. 키워드/인텐트가 일치하면 엔진 API를 자동 호출하여 분석 결과를 응답에 추가합니다.

채팅 질문에 키워드나 인텐트가 매칭되면 해당 엔진 API를 자동 호출하여 AI 분석 결과를 응답에 보강합니다.

ID이름엔진키워드인텐트활성관리
로딩 중...
도움말:
  • 채팅 메시지에 키워드가 포함되거나 인텐트가 일치하면 해당 엔진 API를 자동 호출합니다
  • 파라미터 매핑: 채팅에서 추출한 파라미터를 엔진 API 파라미터로 변환합니다 (예: {"period_days":"period"})
  • 응답 템플릿: {필드명}은 엔진 API 응답의 JSON 필드로 치환됩니다. 중첩 필드는 {parent_child} 형식
  • 테스트: 기본값 파라미터로 엔진 API를 직접 호출하여 응답 구조를 확인합니다
  • 비활성 매핑은 채팅에서 자동 호출되지 않습니다

매뉴얼 RAG

📚 설비 매뉴얼 PDF를 업로드하면 알람 발생 시 관련 페이지를 자동 검색합니다
PDF 수
-
청크 수
-
벡터 수
-
임베딩 모델
-
100MB 이하, PDF만

등록된 PDF

파일명 크기 등록일 삭제
로딩 중...

검색 테스트

  • PDF 업로드 시 텍스트가 추출되어 벡터 인덱스로 변환됩니다
  • Ollama nomic-embed-text 모델로 768차원 임베딩 생성
  • 알람 질문 시 매뉴얼에서 관련 페이지를 자동 검색하여 답변에 포함합니다
  • 페이지 이미지를 클릭하면 해당 PDF 페이지를 원본 크기로 확인할 수 있습니다

채팅 테스트 메신저 스타일

💬 채팅으로 테스트해보세요
아래 입력창에 질문을 입력하거나, 왼쪽의 학습 문장을 선택하세요.
예시 질문:
• 오늘 생산량은?
• 1라인 가동률 알려줘
• 알람 현황 보여줘
▶ 학습 문장
처리 과정 안내
1. 의도 분류 — FastText 모델로 질문 의도 파악
2. 파라미터 추출 — 시간, 라인, 설비 등 추출
3. SQL/SP 실행 — 매핑된 쿼리 실행
4. 응답 생성 — 자연어 답변 포맷팅
AI 메시지를 클릭하면 각 단계의 상세 정보를 볼 수 있습니다.

LLM

🤖 Ollama(로컬 LLM)를 연결하면, 인텐트에 없는 질문도 AI가 SQL을 생성하여 답변합니다. Ollama 미설치 시 기존 동작 100% 동일합니다.
확인 중...

기본 설정

15초
10초
자동
도움말:
  • Ollama 설치: https://ollama.com에서 다운로드 후 설치, 또는 설치 배치파일 사용
  • 모델 다운로드: 터미널에서 ollama pull qwen2.5-coder:7b 실행 (SQL 특화 권장)
  • 보안: SELECT만 허용, 위험 키워드 차단, 쿼리 타임아웃 적용
  • Ollama 미설치 시: 기존 동작 100% 동일하게 유지됩니다

quant.cpp (로컬 추론 서버)

미확인
비활성
30초
quant.cpp 도움말:
  • quant.cpp: llama.cpp 기반 양자화 추론 서버. GGUF 모델을 로드하여 OpenAI 호환 API 제공
  • KV Compress: KV 캐시 압축 방식. turbo_kv_4b가 속도/품질 균형이 가장 좋음
  • Ollama와 병행: Ollama 비활성 시 quant.cpp를 대체 추론 엔진으로 사용 가능
  • 포트: 기본 8080, Ollama(11434)와 충돌 없음

Agent Jobs

AI 집계 Job을 관리합니다. 원본 테이블 → 집계 테이블 변환을 스케줄 실행하며, 수동 실행도 가능합니다.

레포트 디자이너

📊 드래그앤드롭으로 레포트를 구성하세요. 좌측 도구상자에서 섹션을 캔버스로 끌어다 놓고, 카드를 클릭하면 속성을 편집할 수 있습니다.
도움말: 레포트 디자이너 사용법
  • 섹션 추가: 좌측 도구상자에서 캔버스로 드래그하거나 클릭
  • 순서 변경: 캔버스의 카드를 드래그하여 순서 변경
  • 속성 편집: 카드를 클릭하면 속성 패널이 열립니다
  • 데이터 소스: SELECT 쿼리 또는 EXEC SP명 형태로 입력
  • 시트: 하단 탭으로 멀티 시트 관리 (엑셀처럼)
  • 차트 종류: bar, pie, line, doughnut, radar, polarArea
  • 조건부 서식: 테이블 속성에서 규칙 추가

서버 데이터 관리

각 데이터 유형별 보관 기간을 설정합니다. 변경 후 [저장] 버튼을 클릭하세요.

데이터 종류 용도 위치 DB/파일 보관일(현재) 보관일(변경) 변경일 저장

산업 설정

기본: 제조 환경 (현재 자동차 제조 기준). 산업 변경 및 추가 모듈을 설정할 수 있습니다.

추가 모듈 (모든 산업 공통)

제조 환경 기본 엔진(CT/SPC/진동/OEE) 외에 추가로 사용할 기능을 선택하세요.

산업 템플릿 변경 (25개 산업)

산업을 변경하면 기본 엔진 ON/OFF가 해당 산업 프리셋으로 초기화됩니다. 추가 모듈은 유지됩니다.

배포 관리 (Export / Import)

Dev → Production 번들 내보내기

학습된 모델/설정/데이터를 ZIP으로 패키징하여 운영 서버에 배포합니다.

기존 번들

Production에 번들 적용

ZIP 번들을 업로드하면 검증 → 백업 → 적용합니다.


피드백 내보내기 / 가져오기

운영서버 피드백 → 개발서버 재학습 → 다시 배포

백업 목록 / 롤백

스토리지 설정

데이터 저장 방식을 선택합니다. 운영 환경에 맞는 백엔드를 선택하세요.

주의: 전환 시 기존 데이터는 자동 마이그레이션되지 않습니다. 전환 전 번들 내보내기를 권장합니다.

현재 스토리지

백엔드 전환

MSSQL
공장 MES 연동 (기본)
MySQL
오픈소스 DB
PostgreSQL
오픈소스 고급 DB
SQLite
단일 파일 DB (설치 불필요)
File JSON
JSONL 파일 (DB 없는 환경)

🛡 센티넬 관리 (측정 미측정값)

🛡 무엇을 하는 화면인가?
측정 설비에서 잠깐 튀는 값(센서 노이즈, 미측정, 0값, MARPOSS 3276.7 placeholder 등)을 분석에서 자동으로 제외합니다.
💡 등록된 룰은 모든 측정 AI 분석에서 자동 적용됩니다. 등록 후 별도 재시작 없이 즉시 반영.

📊 임계값 / 연속성 설정

📊 무엇을 하는 화면인가?
AI 분석의 영역별 WARNING/CRITICAL 임계값 + 연속성 분석 파라미터(EWMA λ, Change Point penalty, Run Length, Forecast horizon)를 GUI로 조정합니다.
💡 현장 상황에 맞게 민감도 튜닝. JSON 편집 없이 화면에서 바로 변경.

연속성 파라미터

🏭 설비별 분석 설정

🏭 무엇을 하는 화면인가?
설비(MCN)별로 AI 분석 ON/OFF + 일시 제외(유지보수/PM 중)를 관리합니다. MES_YN='Y' 41개 설비가 기본 분석 대상.
💡 특정 설비를 일시 제외해도 다른 설비 분석은 정상 수행.

💬 피드백 관리 (AI 판정 검증)

💬 무엇을 하는 화면인가?
AI가 판정한 결과(CT 이상, OEE 하락 등)에 대한 사용자 피드백을 관리합니다. TRUE_POSITIVE / FALSE_POSITIVE / IGNORE.
💡 FALSE_POSITIVE가 누적되면 자동으로 센티넬 후보로 추천. 모델 정확도 향상.

📚 유사사례 지식베이스

📚 무엇을 하는 화면인가?
과거 발생한 CRITICAL 이벤트 + 조치 내역을 라이브러리로 관리합니다. 새 이상 발생 시 패턴 매칭으로 자동 추천.
💡 운영자가 수기로 입력하거나 AI가 자동 추출. HOW_REFERENCE 필드 채움.

도움말

좌측 메뉴를 선택하면 해당 화면의 상세 도움말이 여기에 표시됩니다.