반응형 Unity32 Qwen3-TTS는 실시간으로 붙일 수 있을까 Qwen3-TTS는 실시간으로 붙일 수 있을까1.7B와 0.6B를 직접 돌려보고 속도를 다시 봤다3편까지 오면 Qwen3-TTS가 최소한 Windows 로컬에서 실행되고, 한국어 음성도 실제로 생성된다는 건 확인된다.문제는 그다음이다. 설치가 되고, UI가 뜨고, 소리가 나온다고 해서 바로 실사용 가능한 건 아니다. 특히 내가 이걸 본 이유가 단순 데모 감상이 아니라 연동 가능성, 그중에서도 Unity 같은 쪽과의 연결 가능성을 보려는 데 있었다면, 결국 제일 먼저 걸리는 건 속도다. 실제로 문서 흐름도 여기서 완전히 바뀐다. 3편까지는 “된다”를 확인하는 과정이었다면, 4편부터는 “이 속도로는 괜찮은가”를 따져보기 시작한다. 처음 Web UI에서 한국어를 생성했을 때 체감 시간은 약 15초였다.그 정도.. 2026. 4. 2. 실시간보다 안 깨지는 게 더 중요했던, 승인형 이미지 전송 시스템 작업 실시간보다 안 깨지는 게 더 중요했던승인형 이미지 전송 시스템 작업 기록이번 작업은 태블릿에서 사용자가 만든 이미지를 다른 장치로 보내고,중간에서 한 번 확인한 뒤, 승인된 것만 최종 출력에 반영하는 구조를 만드는 일이었다.처음에는 그냥 “이미지 전송 기능 하나 만들면 되겠지” 정도로 생각했는데,실제로 붙여보니 전송 자체보다 그 다음이 더 문제였다.여러 대가 동시에 붙을 수 있고사용자가 보낸 이미지를 바로 써도 되는 상황이 아니고중간에 운영자 확인이 필요하고최종적으로는 다른 출력 장치까지 흘려야 했다결국 이건 단순 업로드 기능이 아니라,상태를 갖는 승인형 파이프라인으로 봐야 맞는 작업이었다.이번 글에서는 구현 방법 자체보다,왜 이런 구조로 갔는지,어디서 막혔는지,그래서 어떤 선택을 했는지를 중심으로 정리.. 2026. 3. 26. Unity에서 OpenAI API로 AI 도슨트 만들기 Unity에서 OpenAI API로 AI 도슨트 만들기STT → LLM → TTS 흐름을 하나로 연결한 기록앞선 글들에서는 Unity에서 OpenAI API를 이용해 텍스트를 생성하고, 이미지를 만들고, TTS와 STT를 각각 붙여보는 과정을 정리했다. 여기까지는 기능을 하나씩 검증하는 단계였다면, 이번에는 그 기능들을 연결해서 실제로 대화하는 구조를 만들어본 기록을 정리해보려고 한다. 문서 기준 마지막 파트도 바로 이 지점을 다룬다. 즉, 사용자가 마이크에 질문하고, 시스템이 그 말을 이해한 뒤, 적절한 답을 생성해서 다시 음성으로 들려주는 전체 흐름이다. 이번 글의 핵심은 “OpenAI API 기능이 많다”가 아니라, 그 기능들을 어떻게 순서대로 이어서 하나의 사용자 경험으로 만들었는가에 있다. 실제.. 2026. 3. 26. Unity에서 OpenAI API로 STT 붙이기 Unity에서 OpenAI API로 STT 붙이기마이크 입력을 텍스트로 바꾸는 흐름 정리앞선 글에서는 Unity에서 OpenAI API를 이용해 텍스트를 음성으로 바꾸고, 그 결과를 AudioSource로 재생하는 과정까지 정리했다. 이번에는 그 반대 방향으로 가본다. 즉, 사용자가 말한 음성을 받아서 텍스트로 바꾸는 STT(Speech To Text) 기능이다. 문서 기록에서도 이 파트는 OpenAI API STT Generator로 별도 정리되어 있고, 내용상으로도 이미지나 TTS와는 결이 조금 다르다. 여기부터는 단순 API 호출을 넘어서 마이크 입력, 오디오 저장, STT 요청, 결과 확인까지 하나의 흐름으로 봐야 하기 때문이다. 이번 글은 음성 입력을 받아 텍스트로 바꾸는 단계까지만 다룬다. 아.. 2026. 3. 26. Unity에서 OpenAI API로 TTS 붙이기 Unity에서 OpenAI API로 TTS 붙이기텍스트를 음성으로 바꾸고 AudioSource로 재생해본 기록앞선 글들에서는 Unity에서 OpenAI API를 이용해 텍스트를 만들고, 이미지를 생성하고, 기존 이미지를 편집하는 과정까지 정리했다. 이번에는 그 흐름을 오디오 쪽으로 확장해봤다. 목표는 단순했다. 텍스트를 입력으로 주고, 그 결과를 실제 음성으로 만들어 Unity 안에서 재생하는 것이었다. 문서 기록 기준으로 이 파트는 OpenAI API TTS Generator로 정리되어 있고, 내용도 비교적 명확하다. 오디오 기능 개요를 먼저 짚고, 그 다음 TTS를 어떻게 Unity 씬 안에 붙였는지 설명하는 구조다. 이번 글은 음성 입력을 받아 다시 텍스트로 바꾸는 STT 파트는 아직 다루지 않는다.. 2026. 3. 26. Unity에서 OpenAI API로 이미지 편집과 마스킹 해보기 Unity에서 OpenAI API로 이미지 편집과 마스킹 해보기Image Edit부터 부분 편집 테스트까지지난 글에서는 Unity에서 OpenAI API를 이용해 이미지를 생성하고, RawImage에 결과를 표시하는 흐름까지 정리했다. 거기까지가 “없는 이미지를 새로 만든다”는 단계였다면, 이번에는 한 단계 더 가서 기존 이미지를 편집하는 흐름을 정리해보려고 한다. 이미지 편집은 생성보다 실무적인 활용도가 더 높다. 이미 가지고 있는 원본 이미지를 바꾸거나, 특정 부분만 선택해서 수정할 수 있기 때문이다. 문서 기록도 이 구간부터는 “한 장 편집”, “여러 장 참고 편집”, “마스킹을 이용한 특정 부분 편집”처럼 옵션을 나눠 설명하고 있다. 이번 파트에서 가장 중요한 건 두 가지다. 첫째, 기존 Unit.. 2026. 3. 26. Unity에서 OpenAI API 이미지 생성 붙이기 Unity에서 OpenAI API 이미지 생성 붙이기Organization Verification부터 실제 생성 테스트까지지난 글에서는 Unity에서 OpenAI API를 호출하기 위한 기본 세팅을 잡고, 가장 단순한 텍스트 생성 테스트까지 진행했다. 여기까지가 “API 연결이 된다”를 확인하는 단계였다면, 이번에는 한 단계 더 가서 이미지 생성 기능을 Unity 안에 붙이는 과정을 정리해보려고 한다. 다만 이미지 쪽은 텍스트 생성과 다르게 그냥 바로 코드부터 들어가면 안 됐다. 문서에도 적혀 있듯, OpenAI API로 이미지 생성 기능을 쓰기 위해서는 먼저 사용자 인증, 정확히는 Organization Verification이 선행되어야 했다. platform.openai.com → Settings .. 2026. 3. 26. Unity에서 OpenAI API 시작하기 Unity에서 OpenAI API 시작하기API 키 발급부터 첫 텍스트 생성 테스트까지 정리이번 작업에서는 Unity 프로젝트 안에서 OpenAI API를 직접 호출할 수 있는 환경을 먼저 만들고, 가장 기본적인 기능인 텍스트 생성까지 확인해봤다. 목표는 단순했다. Unity 안에서 OpenAI SDK가 정상적으로 연결되는지 확인하고, 키 입력 한 번으로 모델 응답이 Console에 출력되는 최소 테스트를 통과시키는 것이었다. 문서 기록 기준으로는 OpenAI 플랫폼에서 API 키를 발급하고, Unity Package Manager에 OpenUPM 레지스트리를 추가한 뒤, OpenAI 패키지를 설치하고 OpenAIConfiguration에 API 키를 연결하는 흐름으로 정리되어 있다. 이번 글은 이미지 .. 2026. 3. 26. whisper.cpp Wrapper DLL을 만들고 Unity에서 로컬 STT로 동작 가능하도록 whisper.cpp Wrapper DLL을 만들고 Unity에서 로컬 STT로 동작 가능하도록앞선 단계에서 whisper.cpp를 Windows 환경에서 빌드했고, CPU 기준 동작도 확인했고, CUDA를 붙였을 때 GPU 성능이 크게 올라가는 것도 확인했다. 그런데 여기까지는 어디까지나 whisper-cli를 직접 실행하는 단계였다. 실제 프로젝트, 특히 Unity 같은 엔진 환경에서 쓰려면 커맨드라인 실행만으로는 부족했다. 결국 필요한 건 외부에서 단순한 함수 호출만으로 STT를 실행할 수 있는 구조였고, 그래서 이번에는 whisper.cpp를 감싼 Wrapper DLL을 만들어 Unity에서 붙이는 방향으로 진행했다. 이번 글은 “Whisper가 돌아간다”보다 한 단계 더 나간 기록이다. 모델 로.. 2026. 3. 26. TTS(Text To Speech) 로컬 실행 및 테스트 sherpa-onnx TTS TTS(Text To Speech) 로컬 실행 및 테스트 sherpa-onnx TTS 처음부터 CUDA 빌드, 커스텀 빌드, Unity용 wrapper DLL까지 한 번에 들어가면 개발보다 환경 설정에 시간이 더 많이 들어갑니다. 그래서 첫 시도에서는 욕심내지 않고, Windows용 프리빌트 TTS 패키지와 한국어 모델을 받아 공식 실행 파일로 음성이 실제 생성되는지 확인하는 것을 목표로 잡았습니다. 1차 목표Windows에서 sherpa-onnx 프리빌트 라이브러리 받기한국어 TTS 모델 받기공식 exe로 TTS가 실제 동작하는지 검증하기sherpa-onnx를 첫 후보로 잡은 이유는 분명했습니다.이 프로젝트는 ONNX Runtime 기반으로 동작하는 로컬 음성 AI SDK이고, 음성 인식뿐 아니라 TT.. 2026. 3. 26. Unity URP 간단 Outline Shader 만들기 Unity URP 간단 Outline Shader 만들기 URP에서 가장 빠르게 "외곽선(Outline)"을 만드는 방법은 의외로 단순합니다.같은 지오메트리를 2번 렌더링하고, 그 중 하나를 살짝 크게 만든 뒤 Back Face만 렌더하면 됩니다.결과적으로 원본 오브젝트 뒤에서 튀어나오는 부분만 보이면서 테두리처럼 보입니다. 먼저 큐브 2개를 만들어서 하나는 스케일을 1.1배 정도 크게합니다.Unlit Material 하나를 만들어서 오른쪽 큐브에 넣고 Render Face를 Back으로 설정하면 오브젝트의 뒷면만 그리게 됩니다.큐브 2개를 겹쳐 놓으면 아웃라인처럼 보이는 현상이 일어납니다. 이처럼 설정하면 즉시 외곽선이 생기지만 단점은 명확합니다.외곽선이 있는 오브젝트가 단 하나라면 상관 없지만, 외곽.. 2026. 2. 15. Unity 구글 플레이 콘솔 경고 디버그 기호가 업로드되지 않았습니다. Unity 구글 플레이 콘솔 경고 디버그 기호가 업로드되지 않았습니다. 이 App Bundle 아티팩트 유형은 네이티브 코드를 포함하며 아직 디버그 기호가 업로드되지 않았습니다. 비정상 종료 및 ANR을 더 쉽게 분석하고 디버그할 수 있도록 기호 파일을 업로드하는 것이 좋습니다. 위 경고가 신경 쓰이기 때문에 제거하도록 합니다. 제거 방법은 디버그 심볼을 추가하기만 하면 됩니다. 유니티 에디터에서 빌드를 할 때 디버그 심볼을 public으로 변경해줍니다.유니티 6가 아닌 경우 Create Symbols.zip로 나타날 수 있습니다. 변경시 output options에 .zip으로 표시됩니다. 변경 후 빌드를 진행하고, 빌드 경로를 확인해 보면 zip파일이 생성된 것을 볼 수 있습니다. 구글 플레이.. 2025. 1. 31. 이전 1 2 3 다음 반응형