728x90 반응형 prompt1 [LangChain] Prompts, Caching, Streaming, Token Usage https://growth-coder.tistory.com/253 이전 포스팅에서 Model input output에 대해서 알아보았다. 위 단계 중 Format을 보면 원하는 형식을 만들어서 거기에 끼워맞추는 모습을 볼 수 있다. PromptTemplate과 ChatPromptTemplate을 사용하여 format을 해보자. 참고로 이전 포스팅과 마찬가지로 OPENAI_API_KEY가 환경 변수로 등록되어 있어야 한다. PromptTemplate from langchain.prompts import PromptTemplate from langchain.chat_models import ChatOpenAI chat = ChatOpenAI() prompt_template = PromptTemplate.fr.. 2023. 10. 20. 이전 1 다음 728x90 반응형