AI연구회
경남ICT협회 AI 연구 모임
핵심적으로 LLM은 사람과 추론된 데이터 사이에 자연어 인터페이스를 제공합니다.광범위하게 사용 가능한 모델은 Wikipedia 및 메일링 목록에서 교과서 및 소스 코드에 이르기까지 공개적으로 사용 가능한 방대한 양의 데이터에 대해 사전 교육을 받습니다.LLM 위에 구축된 애플리케이션은 개인 또는 도메인별 데이터로 이러한 모델을 보강해야 하는 경우가 많습니다. 안타깝게도 해당 데이터는 격리된 애플리케이션과 데이터 저장소에 분산될 수 있습니다. API 뒤에 있거나 SQL 데이터베이스에 있거나 PDF 및 슬라이드 데크에 갇혀 있습니다. 설치는:pip install llama-index
pip install llama-index
아래코드에서는 .//llmData로 정했습니다
Openai에서 받을 수 있으며, 방법은 internet에서 찾아보세요
GPTVectorStoreIndex는 GPT를 기반으로 문서를 벡터로 변환하고, 이를 인덱싱하는 클래스입니다.다음으로 from_documents 메소드를 사용하여 documents_txt라는 텍스트 문서를 사용해 인덱스를 생성합니다.이 메소드는 문서들을 읽어서 각 문서를 벡터로 변환하고, 이 벡터들을 저장하여 나중에 빠른 검색이 가능하게 합니다.마지막으로, as_query_engine 메소드를 사용하여 인덱스를 쿼리 가능한 형태로 변환합니다.이렇게 하면 특정 쿼리에 대한 문서 검색을 수행할 수 있게 됩니다.이 쿼리는 보통 사용자의 질문이나 검색 키워드가 됩니다.GPT를 이용하여 문서 검색 시스템을 구축하는 예로 사용자의 질문이나 키워드에 가장 잘 맞는 문서(Data)를 찾아주는 역할을 합니다.
PS) Llama2를 사용한 사례는 조만 간에 올릴 예정입니다(아주 쉬워요~)
기업 홍보를 위한 확실한 방법협회 홈페이지에 회사정보를 보강해 보세요.