austin-distel-rxpThOwuVgE-unsplash.jpg

AI연구회

경남ICT협회 AI 연구 모임

행사리뷰

자율제조(Think Plant) 세미나 2회차

일시: 2025년 3월 18일 

장소: AX Lab 

session #1)

1. 제조업 디지털 전환: 자율 제조와 AI 그리고 플랫폼의 역할

  • 제조업과 AI의 결합
    • 데이터 기반 제조 시스템 구축
    • AI 및 MLOps(머신러닝 운영) 도입을 통한 제조 공정 자동화 및 최적화
       
  • MLOps와 AI 모델 관리
    • 자동화된 AI 학습 프로세스(AutoML): 문제 정의 → 데이터 준비 → 모델 학습 및 평가
    • 지속가능한 AI 모델 운영: 성능 저하 감지 및 재학습(Continuous Training, Continuous Deployment)
    • 모델 성능 관리 및 배포: A/B 테스트, 성능 대시보드, 피드백 기반 개선
       
  • 기존 제조 시스템과 AI 연계
    • MES(제조 실행 시스템), ERP(전사적 자원관리), PLM(제품 수명 주기 관리) 등의 기존 레거시 시스템과 AI의 통합
    • Edge AI를 활용한 실시간 데이터 분석 및 제조 자동화
       
  • MLOps 적용 전략: Buy vs Build
    • 외부 솔루션 구매(Buy)와 자체 구축(Build) 전략 비교
    • 4I-MLOps 및 4I-Chatbot을 통한 AI 기반 제조 혁신

session #2)

2. Manufacturing language understanding and generation

1. 맞춤형 AI 비서 및 개인화된 AI 모델 구축

  • Gen-AI를 활용하여 맞춤형 AI 비서를 개발하고 개인 브랜딩을 지원.
  • PC에서 Gen-AI를 설치하고 활용하는 방법 설명.

2. 제조업에서 LLM(대규모 언어 모델) 활용

  • 제조기업에서 LLM을 적용하지만 현재는 일부 기능만 활용하고 있음.
  • 제조 현장에서 빠른 응답이 가능한 AI 시스템 필요.
  • 기존 산업구조에서 LLM을 적용할 때 전임자의 경험이 중요.

3. 제조 AI 에이전트 서비스 (Manufacturing AI Agent Service)

  • 제조업에서 LLM을 기반으로 한 AI 에이전트 도입을 추진.
  • Synkron (GN-Manufacturing AI Agent) 개념 도입:
    • Sync(동기화) + Kron(시간, 순간) → 조화를 이루는 AI 에이전트.

4. LLM과 AI 에이전트의 방향성

  • 초기에는 초거대 AI가 주를 이루었지만, 현재는 작고 효율적인 AI 에이전트로 변화하는 추세.
  • 제조업에서도 가능한 한 작은 AI 에이전트를 활용하는 방향으로 발전.
  • Merge와 MCP(Model Context Protocol)을 활용한 AI 적용 가능성.

session #3)

3. PERSONAL AI ASSIATANT- 나만의 AI 비서

1. DeepSeek R-1 개요

  • DeepSeek R-1은 완전한 오픈 소스 AI 모델로, 사용자가 직접 수정 및 미세 조정할 수 있음.
  • DeepSeek-V3 모델 기반이며, SFT(Supervised Micro-Tuning) 및 RL(강화 학습)을 통해 성능 향상.
  • 복잡한 프롬프트를 처리하고, 추론 과정이 투명하게 공개됨.

2. 로컬 PC에서 실행하는 방법

Ollama 사용: DeepSeek R-1을 실행하기 위해 Ollama라는 오픈 소스 도구 사용.
 

설치 과정:

  1. Ollama 다운로드 및 설치 (https://ollama.com/)
  2. 설치 확인: ollama -v 실행하여 버전 번호 확인.
  3. Ollama 모델 탭에서 "deepseek" 검색 후 "deepseek-r1" 선택.
  1. 원하는 모델 크기를 선택하여 다운로드 및 실행.

실행 명령 예시 (8B 모델 실행):

ollama run deepseek-r1:8b

  • 모델 다운로드 후 실행 가능.

3. DeepSeek R-1의 GPU 요구 사항

  • 모델 크기에 따라 다른 VRAM 요구 사항이 존재.
  • 더 큰 모델: NVIDIA A100/H100 같은 강력한 GPU 필요.
  • 증류된 모델(최적화 모델)은 VRAM 요구량이 낮아 0.7GB부터 실행 가능.

4. 로컬에서 실행하는 이유

  • 개인정보 보호
  • 오프라인 액세스 가능
  • 미래 경쟁력 확보
  • 유연한 활용
  • 자신만의 AI 비서 생성 가능
  • 내 데이터 기반의 맞춤형 LLM 응답 생성 가능

기업 홍보를 위한 확실한 방법
협회 홈페이지에 회사정보를 보강해 보세요.