![translation](https://cdn.durumis.com/common/trans.png)
Dies ist ein von KI übersetzter Beitrag.
Mr. Know-All 2 – August 2023
- Schreibsprache: Koreanisch
- •
-
Referenzland: Alle Länder
- •
- IT
Sprache auswählen
Von durumis AI zusammengefasster Text
- Unternehmen müssen interne Daten unbedingt für das maschinelle Lernen von LLMs bereitstellen.
- Mit dem Technologie-Stack OpenAI API Key, LangChain, Streamlit, FAISS und ChromaDB können PDF-Dateien verarbeitet werden.
- Es gibt viele Ressourcen zu diesem Thema, aber es ist sinnvoll, ein gut organisiertes GitHub-Repository zu konsultieren.
Wenn man mit der Integration von LLM-gestützten KI-Anwendungen arbeitet, ist der Zugriff auf interne Unternehmensdaten fast immer unerlässlich. Unternehmen werden ihre internen Daten jedoch nicht unbedingt für das Training von LLMs zur Verfügung stellen. Diese Daten werden in verschiedenen Formaten von Dokumenten oder Datenbanken verwaltet. Beginnen wir mit der Verarbeitung von Daten, die in PDF-Dateien gespeichert sind.
Wir verwenden OpenAI API Key, LangChain und Streamlit. Da wir Streamlit verwenden, ist der UI-Code kurz und daher leicht zugänglich.
Wir verwenden FAISS als Vektor-Speicher.
Wir verwenden ChromaDB als Vektor-Speicher. Dies scheint das Repository im Zusammenhang mit Videos zu sein.
Der YouTuber-GitHub enthält auch andere nützliche Referenzen.
Es wird auch eine gute Erklärung gegeben. Wenn mir die Zeit gegeben wird, möchte ich die Erläuterungen zusammenfassen.
Es gibt verschiedene Einstellungen für die Benutzeroberfläche.
Es gibt eine Vorschaufunktion.
Es werden LangChain-Klassen behandelt, die an anderer Stelle nicht behandelt werden.
Der Technologie-Stack ist etwas anders.
Es gibt zu viele. Ich habe sie gefiltert und gefiltert, aber es sind immer noch viele da. Wenn du dir nur eines ansehen möchtest, empfehle ich dir, dies anzusehen, den Code des Repositorys unten zu verstehen und alle anderen verwandten Videos zu löschen. Ich werde dieses Thema nicht mehr anschauen.