No video

Anything LLM - Conecta tus documentos con agentes LLM locales, remotos y mucho más!

En el directo de mostraremos varias de las funcionalidades de Anything LLM, un frontal que nos permite conectar con multitud de fuentes de una forma sencilla. Conectaremos con nuestros documentos, con repositorios de Github, con videos de KZread, LM Studio, Ollama... todo en todo lugar en todas partes!

Пікірлер: 48

  • @LaHoraMaker
    @LaHoraMaker2 ай бұрын

    Gracias a Javi nos dimos cuenta en el minuto 9:27 que no estabamos compartiendo la pantalla! Puedes saltar directamente a ese punto para ver cómo se configura Anything LLM para conectar con cualquier fuente!

  • @pako360
    @pako3606 күн бұрын

    Perfecto lo que estuve buscando hace mucho tiempo!!!!! Gracias miles Maestro

  • @fblua
    @fblua2 ай бұрын

    Excelente. Muy útil. Se agradece el esfuerzo y la generosidad de compartir vuestro conocimiento. Que continúen los vídeos. Gracias nuevamente. Saludos desde Buenos Aires, Argentina.

  • @bechelego5337
    @bechelego53372 күн бұрын

    Hola César, ¿qué tal? Antes que nada me gustaría felicitarte por tu labor, ya son varios vídeos tuyos los que he visto y los encuentro de gran valor divulgativo, estoy aprendiendo mucho. Sin embargo, tengo una consulta específica que no he logrado resolver a día de hoy. Se me ha encargado generar una base de datos que contenga todos los conocimientos pertenecientes a artículos, libros y podcasts de un experto en neurociencia con el fin de que una ia se alimente de estos y pueda manejar información de neurociencia que pertenezca a las conclusiones de este experto. El caso es que tengo un quebradero de cabeza porque no sé cómo hacerlo. He intentado el RAG pero he descubierto que hay un máximo de tokens por interacción, cuando el objetivo final de esta ia es que con una sola pregunta pueda responder basándose en la información de todos los documentos (que son alrededor de 1000000 de palabras, lo que equivale a muchísimos tokens). Entonces contemplé el fine-tuning, pero no sé si es algo accesible para mí o se debería contratar un servicio. No sé si es una tarea que pueda solventarse con RAG ya que no llego a entender del todo cómo funciona el tema de los tokens, en el sentido de cómo lee los documentos, si lo hace todo del tirón, si va en busca de palabras clave para poder abarcar mucho más texto sin tener que analizarlo todo... Mi pregunta es, sin hacerte perder tiempo, si se te ocurre alguna forma de abarcar esta tarea, o cuál es la mejor. Mil gracias de antemano.

  • @josecomas150
    @josecomas1502 ай бұрын

    Justo estaba pensando lo extraño que era que no tuvieses la pantalla puesta y has contestado al instante la pregunta de Javi. Ha parecido magia, muy bueno todo fenómeno.

  • @williams7073
    @williams7073Күн бұрын

    Buenas, un buen trabajo, te vas un poco a veces por los cerros de Ubeda de lo que es el contexto del directo, pero aún así creo que lo explicas todo bastante bien y se ve que controlas de lo que hablas. Así que enhorabuena por el trabajo....😂😂😂 Una duda personal, entre Anything LLM y Open Webui, cual crees que es más eficiente y da mejores resultados? Propuesta: Seria interesante que hablaras de AutoGPT, considero que ese programa le vendría bien conocerlo a la mayoría de los que estamos aquí. Con respecto a AutoGPT me surge la duda de si usar Auto-GPT 5.1 con la Gui de Neuronic, o usar directamente uno con Gui integrada como podría ser el tractr/auto-gpt:4.0. Ya nos dirás cual es tu experiencia al respecto, si los probaste, o sino animate un día, considero que es un programa muy interesante. Bueno, te mando un saludo y se agradecen tus comentarios.

  • @marianodeiriondo6120
    @marianodeiriondo61206 күн бұрын

    Muy bueno y muy claro! En la empresa donde trabajo estamos buscando desarrollar un chatbot que le sirva de soporte a los empleados de mesa de entrada (quienes reciben las llamadas y consultas) para poder dar respuesta sobre procesos muy secuenciados y procedimentados a los clientes. Para que tener un poco mas de contexto: La empresa es una incubadora de emprendedores que presta ayuda a pequeñas empresas en lo referido a aplicación a prestamos, grants, seguros necesarios para la accion, constitución de la empresa, etc. Crees que utilizar LLM Studio con Ollama + Anything LLM puede ser una buena opcion para lograr esto? Hay alguna otra opcion que creas viable u optima? En lo referido a los Inputs: se puede usar una base de datos MySQL? Audios de llamadas transcriptos? Desde ya muchas gracias!

  • @juanpabloabedala5828
    @juanpabloabedala58286 күн бұрын

    que crack

  • @javaboy6581
    @javaboy65812 ай бұрын

    Buenas Maestro, me guardo el vídeo que lo acabo de ver. Tiene pintaza

  • @LaHoraMaker

    @LaHoraMaker

    2 ай бұрын

    Ya me dirás a ver qué te parece!

  • @walterhectorgonzalesarnao1869
    @walterhectorgonzalesarnao18692 ай бұрын

    saludos desde le Peru !!!!

  • @LaHoraMaker

    @LaHoraMaker

    2 ай бұрын

    Saludos Walter, desde Madrid!

  • @josemalive
    @josemalive4 күн бұрын

    Hola Cesar, una pregunta. Permite Anything LLM levantar un servidor como hace LM Studio para poder beneficiarse de ese "pseudoRag" que has montado con Anything LLM y los documentos en vectorial? Muchas gracias y excelente video.

  • @jackgaleras
    @jackgaleras2 ай бұрын

    9:26 con pantalla ja ja gracias buen video tomatu like

  • @zonadock
    @zonadock2 ай бұрын

    Muy interesante. Gracias, César.

  • @juancazares-du4vs
    @juancazares-du4vs2 ай бұрын

    Muy bueno gracias amigo

  • @jribesc
    @jribesc2 ай бұрын

    Gracias Cesar !!!

  • @ser12369
    @ser123692 ай бұрын

    Muchas gracias

  • @MartinRodrigo-s2x
    @MartinRodrigo-s2xАй бұрын

    Hola, tengo una duda. Si quiero vincularlo con Poe, es posible? porque hay un apartado, pero sólo recomienda Modal

  • @nyambe
    @nyambeАй бұрын

    Interesante contenido

  • @yedaiescueladerobotica3694
    @yedaiescueladerobotica36942 ай бұрын

    Gracias Cesar, no conocia ninguna de las aplicaciones, yo trabajo con FlowiseAI, para la creacion y puesta en produccion de flujos para llms. Estaría bien hacer algun flujo con ollama y como usar memorias, embedins y demas en Rivet Gracias de nuevo

  • @pablodaff
    @pablodaff29 күн бұрын

    Buenas, yo quiero que solo me responda lo que hay en los documentos y que si no lo hay me diga que no tiene la respuesta, es posible esto? porque le subi todos documentos tecnicos y cuando le pregunte como hacer un sandwich me respondio... estoy perdido la verdad.

  • @LaHoraMaker

    @LaHoraMaker

    25 күн бұрын

    Gran pregunta. Según los modelos, pueden funcionar mejor o peor detectando cuando el contexto y la pregunta no tienen mucho que ver. Supongo que para este caso de uso, tendrías que indicarle en el prompt qué parte es la pregunta y cuál la información de contexto.

  • @JO-rp2ec
    @JO-rp2ec2 ай бұрын

    he intentado hacer lo mismo pero con llama3 y LMStudio y no me ha citado los txt. alguna pista? es posible que no tenga agentes mi ia a traves del servidor de LMStudio?

  • @toniduque4882
    @toniduque48822 ай бұрын

    Anything LLM te descarga todo o hay que descargar los modelos aparte? lo he ejecutado y en llm preferences y embedder no me carga ningún modelo al elegir ollama como provider (en la ventana chat model selection y embedding selection aparece en ambas --loading available models --)

  • @ccristian1

    @ccristian1

    29 күн бұрын

    me paso exactamente lo mismo, incluso ingrese la url de ollama local (que me aparece corriendo sin ningun problema) y no aparecen modelos ni embed disponibles para elegir, continue usando la configuracion de anything pero lo ideal seria seguir este video que esta genial por lo demas, gracias!, ¿alguien conoce este error?.

  • @Edu2pc
    @Edu2pc2 ай бұрын

    Me interesa herramientas low code tipo flowiseai

  • @jjen9595
    @jjen95952 ай бұрын

    Hola, se puede abrir lm studio a travez de langchain?

  • @LaHoraMaker

    @LaHoraMaker

    2 ай бұрын

    Puedes llamar desde Langchain a LM Studio con el módulo de OpenAI. Lo único que tienes que definie el parametro openai_api_base='localhost:1234/v1" para que conecte con el servidor local. api.python.langchain.com/en/latest/llms/langchain_openai.llms.base.OpenAI.html

  • @jjen9595

    @jjen9595

    2 ай бұрын

    @@LaHoraMaker genial, aunque ahora debo convertirlo a typescrib, gracias

  • @adanpalma4026
    @adanpalma402619 күн бұрын

    He visto cientos de videos que prometen eso he probado todo y el porcentaje de éxito de la recuperación 60% si acaso Y eso estoy hablando de documentos sencillos cuando hablamos de documentos complejos ni te cuento Termina uno pagando servicios como la llamaparsw de llamaindex y usando modelos de pago porque si el proceso de Chungking y en Bing es malo pues el modelo te va a responder mal

  • @LIGTH-BIT
    @LIGTH-BIT2 ай бұрын

    como se podria hacer con pytho?

  • @estebanfranco5939
    @estebanfranco59392 ай бұрын

    Muy buen video. Estoy tratando de nutrir un bot en azure con mis documentos de atlassian y consumirlos desde microsoft teams, es posible?

  • @LaHoraMaker

    @LaHoraMaker

    2 ай бұрын

    Anything LLM tiene conector para Confluence como origen de los datos y puede conectar con Azure OpenAI como backend. La propia herramienta también tiene una API que permite ofrecer las capacidades configuradas vía AnythingLLM, aunque no la he probado todavía: docs.useanything.com/features/api Así que sería posible conectar este chatbot para que tirara de las fuentes de Confluence con este sistema.

  • @user-ps1zm7cp6m
    @user-ps1zm7cp6m2 ай бұрын

    Parece que no corre con la GPU y no veo opción de modificar este parametro como en LLM Studio

  • @LaHoraMaker

    @LaHoraMaker

    2 ай бұрын

    ¿En qué sistema operativo lo estás probando? En Windows, incluye Ollama que debería detectar automáticamente tu GPU. Por otra parte, ¿has probado a conectar Anything LLM a tu LM Studio local?

  • @leadnauta

    @leadnauta

    2 ай бұрын

    Si a mi no me funciono el embedding con Ollama, tuve que correrlo con Llm studio, prueba a ver, y el modelo ollama3 si pude correrlo con Ollama, que dio problemas con los puertos al inicio

  • @user-ps1zm7cp6m

    @user-ps1zm7cp6m

    2 ай бұрын

    @@LaHoraMaker Hola , lo primero gracias por contestar y enhorabuena por tu canal . Estoy usando W10 y como LLMProvider los modelos que proporciona por defecto AnythingLLM , en concreto Llama2 7B , mi procesador tiene una GPU integrada y es esa la que Anything está usando , eso es lo que veo al monitorizar los recursos del sistema mientras lanzo preguntas , para salir de dudas desconecté la RTX3060 del equipo y el Anything se comporta igual , este comportamiento me recuerda a LLM Studio cuando no activas la opción de uso del 100% de la GPU Nvidia . Probaré a usar como servidor LLMStudio a ver si de esta manera solvento el problema y comentaré resultados. Un saludo

  • @user-ps1zm7cp6m

    @user-ps1zm7cp6m

    2 ай бұрын

    @@LaHoraMaker Solucionado , con Ollama como Servidor como muestras en el video , cargandole Llama3 8b todo ok , parece que el problema es que usando como LLMProvider el propio Anything corre los modelos sobre la CPU o eso parece .....

  • @sebastianmt02
    @sebastianmt02Күн бұрын

    me volvi loco con esta aplicacion, la verdad probé varios modelos entre ellos Llama3.1, tiene un nivel de error enorme, no es confiable, le cargue varios CSV, PDF, terrible el error, no se si hay alguna version paga o que pero mi experiencia es mala o tal vez los documentos deben cumplir cierto requisito, no se, espero saber el comentario de otros usuarios

  • @pagutierrezn
    @pagutierrezn2 ай бұрын

    Se oye demasiado bajo

  • @LaHoraMaker

    @LaHoraMaker

    2 ай бұрын

    ¿En qué momento del video se escucha demasiado bajo? ¿O es todo el video en general?

  • @pagutierrezn

    @pagutierrezn

    2 ай бұрын

    @@LaHoraMaker Desde el principio.

  • @jribesc

    @jribesc

    2 ай бұрын

    @@pagutierrezn Lo siento, pero se oye perfectamente.

  • @LaCompulab
    @LaCompulab2 ай бұрын

    Soy yo el único que piensa que nos estas compartiendo la pantalla y no lo estas haciendo? Edito: vale, ya, jaja

  • @LaHoraMaker

    @LaHoraMaker

    2 ай бұрын

    Así fue hasta el minuto 9! Pero gracias a Javi, pudimos solucionarlo antes de que fuera demasiado tarde!

  • @nkipa
    @nkipa2 ай бұрын

    comprate un microfono