Woojin Kim
수많은 문서를 먹이고 이것저것 질문하는 파이프라인을 로컬에 구축하려면 anythingllm이 꽤 괜찮습니다. 문서를 먹이고 임베딩 모델 올려 벡터 데이터베이스에 저장하고 이걸 워크스페이스 단위로 맥락을 나눠 질문하는 등의 기능을 단일 컨테이너로 전부 해결할 수 있습니다.
수많은 문서를 먹이고 이것저것 질문하는 파이프라인을 로컬에 구축하려면 anythingllm이 꽤 괜찮습니다. 문서를 먹이고 임베딩 모델 올려 벡터 데이터베이스에 저장하고 이걸 워크스페이스 단위로 맥락을 나눠 질문하는 등의 기능을 단일 컨테이너로 전부 해결할 수 있습니다.
@[email protected] · Reply to Woojin Kim's post
아주 많은 문서를 읽히려면 anythingllm이 제공하는 gui만으론 답이 안나오고 api를 통해 밀어넣는 것이 좋습니다. 결국 약 1.1만 문서를 읽혔더니 벡터데이터베이스 크기가 60기가가 됐고 자연어 검색과 여러 문서에 걸친 질의응답에 좀 느리지만 적절히 대답하는 퍼플엑시티 스페이스 비슷한걸 갖추게 되었습니다.