![translation](https://cdn.durumis.com/common/trans.png)
Esta es una publicación traducida por IA.
Mr. Know-All 2 – Agosto de 2023
- Idioma de escritura: Coreano
- •
-
País de referencia: Todos los países
- •
- Tecnología de la información
Seleccionar idioma
Texto resumido por la IA durumis
- Los datos internos de la empresa deben proporcionarse esencialmente para el aprendizaje de LLM.
- Se pueden procesar archivos PDF utilizando la pila tecnológica de OpenAI API Key, LangChain, Streamlit, FAISS y ChromaDB.
- Hay muchos recursos relacionados con este tema, pero es mejor consultar un repositorio de GitHub bien organizado en un solo lugar.
Al trabajar con aplicaciones de IA que se integran con LLM, casi siempre es necesario acceder a los datos internos de la empresa. No se proporcionarán los datos internos de la empresa para el aprendizaje de LLM. Estos datos se gestionarán en varios formatos de documentos o bases de datos. En primer lugar, vamos a intentar procesar los datos almacenados en archivos PDF.
Utilizamos OpenAI API Key, LangChain y Streamlit. Dado que usamos Streamlit, el código de la interfaz de usuario es corto, por lo que es fácil de acceder.
Usamos FAISS como almacén de vectores.
Usamos ChromaDB como almacén de vectores. Este parece ser el repositorio relacionado con los videos.
El repositorio de YouTube tiene otras cosas a las que hacer referencia.
Explica muy bien. Me gustaría organizar el contenido de la explicación si tengo tiempo.
Hay varias configuraciones para la interfaz de usuario.
Hay una función de vista previa.
Trata las clases de LangChain que no se tratan en otros lugares.
La pila tecnológica es un poco diferente.
Hay demasiados. Lo he filtrado y filtrado, pero todavía hay muchos. Si tuviera que elegir uno, te recomiendo que mires esto, entiendas el código del repositorio de abajo y elimines todos los demás videos relacionados. No vuelvo a mirar este tema.