로컬 기반 LLM을 활용한 자막 번역 시스템 사용 방법

반응형
728x90
반응형

 

로컬 환경에서 LLM을 활용한 자막 번역 시스템을 구축하기 위해, 다음과 같은 준비가 필요합니다. 이 과정은 기술에 익숙하지 않더라도 누구나 따라 할 수 있도록 구성되어 있습니다.

 
이전글도 참고 해주세요^_^
 

로컬 기반 LLM을 활용한 자막 번역 시스템 구축

개요기존에는 Papago API나 DeepL과 같은 외부 번역 API를 활용해 자막 파일을 번역해왔습니다. 이들 서비스는 번역 품질이 우수하지만, 대부분 일정량의 무료 크레딧이 일일 혹은 월 단위로 제한되

www.vbflash.net

 

 

🧰 필요한 도구

1. LM Studio

  • 오픈소스 기반의 LLM 실행 도구로, 다양한 로컬 모델을 쉽게 불러와 사용할 수 있습니다.
  • GUI 기반이라 설치 및 사용이 간편하며, REST API 서버 활성화도 지원합니다.

2. Local LLM 모델

  • 사용자가 원하는 번역용 LLM 모델을 선택하여 다운로드할 수 있습니다.
  • 예: EXAONE, LLaMA, DeepSeek, Mistral 등

3. 환경설정 파일

  • setting.env: LLM REST API와 관련된 기본 설정값을 포함
  • prompt_template.txt: 번역 시 사용할 기본 프롬프트 템플릿
  • filename_prompt_template.txt: 자막 파일 구조를 인식시키기 위한 프롬프트 템플릿
 

번역(SubLLM) 실행 Part (요약)


📂 첨부파일 구성

아래는 제공된 번역 시스템 폴더의 구조입니다:

├── Local_LLM_R01.exe                 # 실행파일
├── prompt_template.txt              # 번역 프롬프트 템플릿
├── filename_prompt_template.txt     # 파일명 번역용 프롬프트
├── setting.env                      # 환경설정 파일
├── subtitles/                       # 원본 자막 파일 넣는 폴더
└── output/                          # 번역 결과 저장 폴더 (자동 생성)
 

⚙️ 환경설정 및 번역 절차

1. LM Studio 설치

  • 공식 웹사이트: https://lmstudio.ai/
  • 설치 후, 사용하려는 LLM 모델 다운로드 및 로드

2. LLM 모델 설정

  • 권장 모델: lgai-exaone/exaone-3.5-2.4b-instruct
  • 모델 로드 후 REST API 활성화
    • 외부/내부 요청을 모두 허용하도록 설정

3. 프롬프트 파일 구성

  • prompt_template.txt: 번역 품질을 위한 메시지 템플릿
  • filename_prompt_template.txt: 파일명 생성용 프롬프트
    • ⚠️ LLM이 생성한 파일명이 잘못될 수 있으므로 확인 필요

4. 번역 실행

  • Local_LLM_R01.exe 파일 실행
    • 터미널이 활성화되며 번역 진행 상태를 실시간 확인 가능
    • subtitles 폴더에 자막 파일(SRT/VTT 등)을 넣으면 자동 처리됨
    • 결과는 output 폴더에 저장됨

다운로드 링크 (아래 클릭)
SUBLLM R01 Download

 

번역(SubLLM) 실행 Part


⚙️ LM Studio 설치 및 설정 방법

1. LM Studio 다운로드 및 설치

아래 공식 사이트에서 LM Studio를 다운로드하여 설치합니다.
👉 https://lmstudio.ai/

 

2. 모델 다운로드 및 선택

  1. LM Studio를 실행한 뒤, 돋보기 아이콘(검색) 메뉴로 이동합니다.

 

 

 

2. 원하는 모델을 검색하고, 하드웨어 성능에 맞는 모델을 선택하여 다운로드합니다.
예시:

본 포스팅에서는 EXAONE-3.5-2.4B-Instruct-GGUF 모델을 사용하였습니다.
이 모델은 6GB VRAM에서도 무리 없이 실행 가능하며, 중급 수준의 번역 품질을 제공합니다.

 Tip: VRAM이 12~16GB 이상이라면 더 큰 모델을 선택해도 좋습니다.
예: Mistral-7B, Gemma-7B, LLaMA2-13B 

 

 

3. 모델 로딩 및 REST API 활성화

  1. 상단의 [Develop] 탭으로 이동합니다.
  2. 다운로드한 모델을 선택한 후, VRAM에 로드(Upload) 합니다.
    (로드하는 데 수 분 정도 소요될 수 있습니다.)
  3. 모델 로딩이 완료되면 좌측 상단의 [Status: Stopped] 버튼을 클릭하여 [Status: Running] 상태로 전환합니다.

 

4. REST API 접속 확인

모델이 실행 중이라면 아래와 같은 주소로 접속할 수 있습니다:

http://<사용자 IP>:1234
예: http://192.168.29.191:1234

브라우저에서 해당 주소에 접속했을 때 다음과 같은 페이지가 나타나야 합니다:

  • 모델 이름, 토큰 제한, 상태 정보가 표기된 REST API 문서 페이지
  • 예시 요청 및 응답 예제 확인 가능
    ✅ 반드시 이 화면이 나와야 Python 스크립트에서 정상적으로 연결되어 번역이 수행됩니다.

 

 

📁 파일 구조 및 프롬프트 설정

  • setting.env: 모델 주소(http://localhost:1234), 프롬프트 설정 등 포함
  • prompt_template.txt: "다음 문장을 자연스럽고 의미가 잘 전달되도록 한국어로 번역해주세요."와 같은 지시어 포함
  • filename_prompt_template.txt: 자막 형식을 고려하여, SRT 번호/시간/자막 문장을 구분하여 처리하도록 구성

이제 위 과정을 완료하면, 로컬 기반 LLM을 활용한 자막 번역 시스템을 실행할 준비가 모두 끝난 것입니다. 

 

 

📁 실행결과

  • 상단 설정이 완료되면, Subtitles 폴더에 자막 파일 넣고 실행파일(Local_LLM_R01.exe)을 실행하시면 됩니다!

 

 

끝!! 

 

728x90
반응형

댓글

Designed by JB FACTORY