[OpenAI API] LLM 스트리밍 응답 도중 취소하기 (AbortController)
개요https://growth-coder.tistory.com/328 [Node.js] HTTP POST로 SSE 구현하기 + nginx buffering 문제 해결개요저희 프로젝트는 LangChain을 활용하여 AI 응답을 반환하는 API를 만들어서 사용하고 있습니다. AI가 생성한 응답을 그대로 HTTP 응답으로 반환해주는 API입니다. 하지만 이러한 형태는 AI의 응답growth-coder.tistory.com이전 포스팅에서 스트리밍 기능을 통해 chunk 단위로 클라이언트에게 보내주는 기능을 구현했습니다. 사용성 향상을 위해 응답을 중간에 멈추는 기능을 개발하려고 합니다. 가장 쉬운 방법은 단순하게 클라이언트에서 응답을 멈추는 버튼을 클릭하면 출력을 멈추는 방법입니다. 하지만 이 방법은 LLM 응..
2025.02.20