로컬 환경에서 LLM을 활용한 자막 번역 시스템을 구축하기 위해, 다음과 같은 준비가 필요합니다. 이 과정은 기술에 익숙하지 않더라도 누구나 따라 할 수 있도록 구성되어 있습니다. 이전글도 참고 해주세요^_^https://vbflash.tistory.com/239 로컬 기반 LLM을 활용한 자막 번역 시스템 구축개요기존에는 Papago API나 DeepL과 같은 외부 번역 API를 활용해 자막 파일을 번역해왔습니다. 이들 서비스는 번역 품질이 우수하지만, 대부분 일정량의 무료 크레딧이 일일 혹은 월 단위로 제한되www.vbflash.net 🧰 필요한 도구1. LM Studio오픈소스 기반의 LLM 실행 도구로, 다양한 로컬 모델을 쉽게 불러와 사용할 수 있습니다.GUI 기반이라 설치 및 사용이 간편하..
개요기존에는 Papago API나 DeepL과 같은 외부 번역 API를 활용해 자막 파일을 번역해왔습니다. 이들 서비스는 번역 품질이 우수하지만, 대부분 일정량의 무료 크레딧이 일일 혹은 월 단위로 제한되어 있어, 대용량 번역 작업이나 지속적인 사용에는 비용 부담이 발생합니다.이에 따라 최근에는 로컬(Local) 환경에서 실행 가능한 LLM(Language Model) 기반의 자막 번역 시스템을 구현해보았습니다. 다운로드 - update: 2025.06.26- SUBLLM R01 Download ✅ 로컬 LLM을 사용하는 이유로컬 LLM을 활용하면, 현재 사용 중인 PC의 리소스를 기반으로 번역 작업을 수행하게 됩니다. 따라서 추가적인 비용 없이 전력 사용량만으로도 충분히 번역 기능을 이용할 수 있다..