반응형 Unity34 Unity URP Full Screen Pass와 Fullscreen Shader Graph로 화면 전체 Depth View 구현하기 Unity URP Full Screen Pass와 Fullscreen Shader Graph로 화면 전체 Depth View 구현하기 오브젝트 머티리얼을 건드리지 않고 카메라 전체 화면을 Depth Camera처럼 만드는 방법 이번 글에서는 Unity URP 환경에서 카메라가 보는 최종 화면 전체를 Depth View처럼 출력하는 방법을 정리한다.내가 만들고 싶었던 건 오브젝트별 머티리얼을 바꾸는 방식이 아니었다.예를 들면 큐브 하나, 벽 하나, 바닥 하나에 각각 특수 셰이더를 붙이는 방식이 아니라,카메라가 렌더링한 최종 결과 화면 전체를 한 번에 Depth Camera처럼 보이게 만드는 방식이 목표였다.결론부터 말하면 이 방식으로 해결했다.URP의 Full Screen Pass Renderer Feat.. 2026. 4. 26. Unity에서 Python TTS 서버 호출하기: FastAPI로 Qwen3-TTS 서버 만들기 Unity에서 Python TTS 서버 호출하기: FastAPI로 Qwen3-TTS 서버 만들기 Unity 프로젝트에서 TTS 기능을 붙이려면 몇 가지 방법이 있다.Unity 안에서 직접 모델을 돌릴 수도 있지만, Python 기반 TTS 모델은 보통 의존성도 많고 GPU 환경도 필요해서 Unity에 바로 넣기 부담스럽다.그래서 이번에는 구조를 이렇게 잡았다.Unity ↓ HTTP 요청Python FastAPI 서버 ↓Qwen3-TTS ↓WAV 파일 생성 Unity는 텍스트만 서버로 보내고, 실제 TTS 처리는 Python 서버가 담당하는 방식이다.처음부터 TTS 모델까지 한 번에 붙이면 문제가 생겼을 때 원인을 찾기 어렵다.그래서 먼저 HTTP 서버가 잘 뜨는지 확인하고, 그다음 Unity와 통신이 되.. 2026. 4. 24. Qwen3-TTS는 실시간으로 붙일 수 있을까 Qwen3-TTS는 실시간으로 붙일 수 있을까1.7B와 0.6B를 직접 돌려보고 속도를 다시 봤다3편까지 오면 Qwen3-TTS가 최소한 Windows 로컬에서 실행되고, 한국어 음성도 실제로 생성된다는 건 확인된다.문제는 그다음이다. 설치가 되고, UI가 뜨고, 소리가 나온다고 해서 바로 실사용 가능한 건 아니다. 특히 내가 이걸 본 이유가 단순 데모 감상이 아니라 연동 가능성, 그중에서도 Unity 같은 쪽과의 연결 가능성을 보려는 데 있었다면, 결국 제일 먼저 걸리는 건 속도다. 실제로 문서 흐름도 여기서 완전히 바뀐다. 3편까지는 “된다”를 확인하는 과정이었다면, 4편부터는 “이 속도로는 괜찮은가”를 따져보기 시작한다. 처음 Web UI에서 한국어를 생성했을 때 체감 시간은 약 15초였다.그 정도.. 2026. 4. 2. 실시간보다 안 깨지는 게 더 중요했던, 승인형 이미지 전송 시스템 작업 실시간보다 안 깨지는 게 더 중요했던승인형 이미지 전송 시스템 작업 기록이번 작업은 태블릿에서 사용자가 만든 이미지를 다른 장치로 보내고,중간에서 한 번 확인한 뒤, 승인된 것만 최종 출력에 반영하는 구조를 만드는 일이었다.처음에는 그냥 “이미지 전송 기능 하나 만들면 되겠지” 정도로 생각했는데,실제로 붙여보니 전송 자체보다 그 다음이 더 문제였다.여러 대가 동시에 붙을 수 있고사용자가 보낸 이미지를 바로 써도 되는 상황이 아니고중간에 운영자 확인이 필요하고최종적으로는 다른 출력 장치까지 흘려야 했다결국 이건 단순 업로드 기능이 아니라,상태를 갖는 승인형 파이프라인으로 봐야 맞는 작업이었다.이번 글에서는 구현 방법 자체보다,왜 이런 구조로 갔는지,어디서 막혔는지,그래서 어떤 선택을 했는지를 중심으로 정리.. 2026. 3. 26. Unity에서 OpenAI API로 AI 도슨트 만들기 Unity에서 OpenAI API로 AI 도슨트 만들기STT → LLM → TTS 흐름을 하나로 연결한 기록앞선 글들에서는 Unity에서 OpenAI API를 이용해 텍스트를 생성하고, 이미지를 만들고, TTS와 STT를 각각 붙여보는 과정을 정리했다. 여기까지는 기능을 하나씩 검증하는 단계였다면, 이번에는 그 기능들을 연결해서 실제로 대화하는 구조를 만들어본 기록을 정리해보려고 한다. 문서 기준 마지막 파트도 바로 이 지점을 다룬다. 즉, 사용자가 마이크에 질문하고, 시스템이 그 말을 이해한 뒤, 적절한 답을 생성해서 다시 음성으로 들려주는 전체 흐름이다. 이번 글의 핵심은 “OpenAI API 기능이 많다”가 아니라, 그 기능들을 어떻게 순서대로 이어서 하나의 사용자 경험으로 만들었는가에 있다. 실제.. 2026. 3. 26. Unity에서 OpenAI API로 STT 붙이기 Unity에서 OpenAI API로 STT 붙이기마이크 입력을 텍스트로 바꾸는 흐름 정리앞선 글에서는 Unity에서 OpenAI API를 이용해 텍스트를 음성으로 바꾸고, 그 결과를 AudioSource로 재생하는 과정까지 정리했다. 이번에는 그 반대 방향으로 가본다. 즉, 사용자가 말한 음성을 받아서 텍스트로 바꾸는 STT(Speech To Text) 기능이다. 문서 기록에서도 이 파트는 OpenAI API STT Generator로 별도 정리되어 있고, 내용상으로도 이미지나 TTS와는 결이 조금 다르다. 여기부터는 단순 API 호출을 넘어서 마이크 입력, 오디오 저장, STT 요청, 결과 확인까지 하나의 흐름으로 봐야 하기 때문이다. 이번 글은 음성 입력을 받아 텍스트로 바꾸는 단계까지만 다룬다. 아.. 2026. 3. 26. Unity에서 OpenAI API로 TTS 붙이기 Unity에서 OpenAI API로 TTS 붙이기텍스트를 음성으로 바꾸고 AudioSource로 재생해본 기록앞선 글들에서는 Unity에서 OpenAI API를 이용해 텍스트를 만들고, 이미지를 생성하고, 기존 이미지를 편집하는 과정까지 정리했다. 이번에는 그 흐름을 오디오 쪽으로 확장해봤다. 목표는 단순했다. 텍스트를 입력으로 주고, 그 결과를 실제 음성으로 만들어 Unity 안에서 재생하는 것이었다. 문서 기록 기준으로 이 파트는 OpenAI API TTS Generator로 정리되어 있고, 내용도 비교적 명확하다. 오디오 기능 개요를 먼저 짚고, 그 다음 TTS를 어떻게 Unity 씬 안에 붙였는지 설명하는 구조다. 이번 글은 음성 입력을 받아 다시 텍스트로 바꾸는 STT 파트는 아직 다루지 않는다.. 2026. 3. 26. Unity에서 OpenAI API로 이미지 편집과 마스킹 해보기 Unity에서 OpenAI API로 이미지 편집과 마스킹 해보기Image Edit부터 부분 편집 테스트까지지난 글에서는 Unity에서 OpenAI API를 이용해 이미지를 생성하고, RawImage에 결과를 표시하는 흐름까지 정리했다. 거기까지가 “없는 이미지를 새로 만든다”는 단계였다면, 이번에는 한 단계 더 가서 기존 이미지를 편집하는 흐름을 정리해보려고 한다. 이미지 편집은 생성보다 실무적인 활용도가 더 높다. 이미 가지고 있는 원본 이미지를 바꾸거나, 특정 부분만 선택해서 수정할 수 있기 때문이다. 문서 기록도 이 구간부터는 “한 장 편집”, “여러 장 참고 편집”, “마스킹을 이용한 특정 부분 편집”처럼 옵션을 나눠 설명하고 있다. 이번 파트에서 가장 중요한 건 두 가지다. 첫째, 기존 Unit.. 2026. 3. 26. Unity에서 OpenAI API 이미지 생성 붙이기 Unity에서 OpenAI API 이미지 생성 붙이기Organization Verification부터 실제 생성 테스트까지지난 글에서는 Unity에서 OpenAI API를 호출하기 위한 기본 세팅을 잡고, 가장 단순한 텍스트 생성 테스트까지 진행했다. 여기까지가 “API 연결이 된다”를 확인하는 단계였다면, 이번에는 한 단계 더 가서 이미지 생성 기능을 Unity 안에 붙이는 과정을 정리해보려고 한다. 다만 이미지 쪽은 텍스트 생성과 다르게 그냥 바로 코드부터 들어가면 안 됐다. 문서에도 적혀 있듯, OpenAI API로 이미지 생성 기능을 쓰기 위해서는 먼저 사용자 인증, 정확히는 Organization Verification이 선행되어야 했다. platform.openai.com → Settings .. 2026. 3. 26. Unity에서 OpenAI API 시작하기 Unity에서 OpenAI API 시작하기API 키 발급부터 첫 텍스트 생성 테스트까지 정리이번 작업에서는 Unity 프로젝트 안에서 OpenAI API를 직접 호출할 수 있는 환경을 먼저 만들고, 가장 기본적인 기능인 텍스트 생성까지 확인해봤다. 목표는 단순했다. Unity 안에서 OpenAI SDK가 정상적으로 연결되는지 확인하고, 키 입력 한 번으로 모델 응답이 Console에 출력되는 최소 테스트를 통과시키는 것이었다. 문서 기록 기준으로는 OpenAI 플랫폼에서 API 키를 발급하고, Unity Package Manager에 OpenUPM 레지스트리를 추가한 뒤, OpenAI 패키지를 설치하고 OpenAIConfiguration에 API 키를 연결하는 흐름으로 정리되어 있다. 이번 글은 이미지 .. 2026. 3. 26. whisper.cpp Wrapper DLL을 만들고 Unity에서 로컬 STT로 동작 가능하도록 whisper.cpp Wrapper DLL을 만들고 Unity에서 로컬 STT로 동작 가능하도록앞선 단계에서 whisper.cpp를 Windows 환경에서 빌드했고, CPU 기준 동작도 확인했고, CUDA를 붙였을 때 GPU 성능이 크게 올라가는 것도 확인했다. 그런데 여기까지는 어디까지나 whisper-cli를 직접 실행하는 단계였다. 실제 프로젝트, 특히 Unity 같은 엔진 환경에서 쓰려면 커맨드라인 실행만으로는 부족했다. 결국 필요한 건 외부에서 단순한 함수 호출만으로 STT를 실행할 수 있는 구조였고, 그래서 이번에는 whisper.cpp를 감싼 Wrapper DLL을 만들어 Unity에서 붙이는 방향으로 진행했다. 이번 글은 “Whisper가 돌아간다”보다 한 단계 더 나간 기록이다. 모델 로.. 2026. 3. 26. TTS(Text To Speech) 로컬 실행 및 테스트 sherpa-onnx TTS TTS(Text To Speech) 로컬 실행 및 테스트 sherpa-onnx TTS 처음부터 CUDA 빌드, 커스텀 빌드, Unity용 wrapper DLL까지 한 번에 들어가면 개발보다 환경 설정에 시간이 더 많이 들어갑니다. 그래서 첫 시도에서는 욕심내지 않고, Windows용 프리빌트 TTS 패키지와 한국어 모델을 받아 공식 실행 파일로 음성이 실제 생성되는지 확인하는 것을 목표로 잡았습니다. 1차 목표Windows에서 sherpa-onnx 프리빌트 라이브러리 받기한국어 TTS 모델 받기공식 exe로 TTS가 실제 동작하는지 검증하기sherpa-onnx를 첫 후보로 잡은 이유는 분명했습니다.이 프로젝트는 ONNX Runtime 기반으로 동작하는 로컬 음성 AI SDK이고, 음성 인식뿐 아니라 TT.. 2026. 3. 26. 이전 1 2 3 다음 반응형