![translation](https://cdn.durumis.com/common/trans.png)
To jest post przetłumaczony przez AI.
Pan Wszystkowiedzący 2 – sierpień 2023
- Język pisania: Koreański
- •
-
Kraj referencyjny: Wszystkie kraje
- •
- TO
Wybierz język
Tekst podsumowany przez sztuczną inteligencję durumis
- Dane wewnętrzne firmy są niezbędne do uczenia się LLM.
- Możliwe jest przetwarzanie plików PDF przy użyciu stosu technologicznego, w skład którego wchodzą: klucz API OpenAI, LangChain, Streamlit, FAISS, ChromaDB.
- Istnieje wiele zasobów powiązanych z tym tematem, jednak korzystne jest odwołanie się do dobrze zorganizowanego repozytorium GitHub.
Kiedy pracujesz z aplikacjami AI powiązanymi z LLM, dostęp do danych wewnętrznych firmy jest prawie konieczny. Dane wewnętrzne firmy nie są udostępniane w celu uczenia LLM. Te dane są przechowywane w różnego rodzaju dokumentach lub bazach danych. Zacznijmy od przetworzenia danych przechowywanych w plikach w formacie PDF.
Używane są OpenAI API Key, LangChain i Streamlit. Ponieważ używany jest Streamlit, kod interfejsu użytkownika jest krótki, co ułatwia dostęp.
Wektoryzacja odbywa się przy użyciu FAISS.
Wektoryzacja odbywa się przy użyciu ChromaDB. Wygląda na to, że jest to repozytorium związane z wideo.
Na kanale YouTube użytkownika znajduje się wiele innych elementów, które można wykorzystać jako referencje.
Dobrze to wyjaśnia. Gdybym miał czas, chciałbym posprzątać te wyjaśnienia.
Istnieje wiele ustawień dotyczących interfejsu użytkownika.
Istnieje funkcja podglądu.
Omówiono klasy LangChain, których nie omawiano w innych miejscach.
Stos technologiczny jest nieco inny.
Jest ich zbyt wiele. Usunąłem wiele z nich, ale wciąż jest ich dużo. Jeśli chcesz zobaczyć tylko jeden, zalecam obejrzenie tego i zrozumienie kodu w repozytorium poniżej, a następnie usunięcie wszystkich pozostałych filmów. Nie oglądam już tego tematu.