Tu propio Github Copilot Gratuito instalado en tu computador - Code GPT y Ollama

Ғылым және технология

Con la gran cantidad de modelos inteligentes abiertos, actualmente tambien es posible tener tu propio chat inteligente instalado en tu propio computador y use tu hardware en lugar de la nube, asi que en este tutorial te voy a enseñar como tener tu propio modelo inteligente para que puedas usarlo desde Visual Studio Code al igual que Github Copilot, para lograr esto usaremos Ollama, un software que nos permite instalar LLMs abiertos y Code GPT, una extension de visual studio code que nos permite utilizar multiples modelos inteligentes dentro de VSCode.
⭐ Cursos Recomendados
Curso de Nodejs ⮕ fazt.dev/nodejs
Curso de Python⮕ faztweb.com/python
Curso de React ⮕ • Curso de Reactjs desde...
Curso de Nextjs ⮕ • Curso de Nextjs desde ...
Curso de Javascript para React ⮕ • Javascript para Aprend...
🎒 Servicios Recomendados
SiteGround ⮕ bit.ly/31u9ZEk
Railway ⮕ railway.app?referralCode=fazt
Namecheap ⮕ namecheap.pxf.io/ErDe9
🎒 Otros Servicios
Ledger ⮕ (Hardware Wallet) bit.ly/3ijsVNW
Cloudinary ⮕ bit.ly/3ohNlJ7
Notion ⮕ affiliate.notion.so/yj9uc7bi3miq
🗣 Redes Sociales
Github ⮕ github.com/fazt
Twitter ⮕ / fazttech
Discord ⮕ faztweb.com/social/discord
Puedes encontrar la lista de tutoriales de Nodejs en:
faztweb.com/nextjs
#terraform #digitalocean #vps #cloud
#ollama #desarrolloweb #chatgpt #githubcopilot #vscode

Пікірлер: 123

  • @hbmichang
    @hbmichang3 ай бұрын

    Fazt es mi pastor y nada me faltará!

  • @sneuder9544

    @sneuder9544

    3 ай бұрын

    Fazt es mi pastor y mi código compilará.

  • @PedroEnriquePadillaRuiz

    @PedroEnriquePadillaRuiz

    3 ай бұрын

    🤣🤣🤣

  • @odiio3402

    @odiio3402

    2 ай бұрын

    Sobre delicados repositorios me hará descansar

  • @FrancoAguileradonillan

    @FrancoAguileradonillan

    Ай бұрын

    Cuando camine por el valle de los bugs, no temere porque fazt es mi pastor, y mi proyecto se deployara

  • @felixinit
    @felixinit3 ай бұрын

    Espectacular extensión GPT Code + Llama3. Muchas gracias!

  • @missanddiie
    @missanddiie3 ай бұрын

    Excelente video, muchas gracias, tus tutoriales son excelentes, van al grano bien explicados y sin exagerar en detalles, muchas gracias.

  • @oscarfabian3241
    @oscarfabian32413 ай бұрын

    Tus aportes son realmente útiles, gracias por compartir

  • @404-not-found-service
    @404-not-found-service3 ай бұрын

    Gracias fazt! como siempre un grande

  • @Gutierma_69
    @Gutierma_693 ай бұрын

    Super interesante. Voy a probar hacerlo. Gracias por compartir tus conocimientos.

  • @moy_4520
    @moy_45203 ай бұрын

    excelente me funciono, ya tengo copilot pero con esta nueva ia podre complementar mejor mi forma de desarrollar.

  • @jonathansalazar9775
    @jonathansalazar97753 ай бұрын

    Justamente había visto la noticia del lanzamiento de llama 3 y pensé en si fazt haría algún tutorial sobre eso... increíble fazt, un grande!

  • @mwmg704
    @mwmg7043 ай бұрын

    Excelente video, primera vez usando ia en mi vs code

  • @arturoespinosa3447
    @arturoespinosa34473 ай бұрын

    Fazt: No se preocupen, la descarga es muy rápida Yo al ver su conexión de más de 1 Gbps :|

  • @sandrabentivegna9545
    @sandrabentivegna95453 ай бұрын

    Muchas gracias Fazt!

  • @dcloki789
    @dcloki7893 ай бұрын

    excelente dato, gracias sensei

  • @mjavint
    @mjavint3 ай бұрын

    Muy buen tips mi hermano, tambien soy creador de contenido, tus contenidos son excelentes, GRACIAS

  • @felipeyanez988
    @felipeyanez9883 ай бұрын

    Muchas gracias Fazt

  • @alfs9114
    @alfs91143 ай бұрын

    Wow muchas gracias!!!

  • @LaCompulab
    @LaCompulab3 ай бұрын

    Eres un crack! De siempre

  • @fabianromero1660
    @fabianromero16603 ай бұрын

    Gracias fazt, tengo entendido que te llamas igual que yo, pero, de grande quiero ser como tú, gracias por tus aportes compa

  • @andresbonilla2180
    @andresbonilla21803 ай бұрын

    Agradable aporte, para nosotros los humildes.

  • @secretosdelatecnologia7177
    @secretosdelatecnologia717722 күн бұрын

    MUCHAS GRACIAS AMIGO , ME SERVIRÁ MUCHO PARA PRACTICAR PYTHON , MIL GRACIAS

  • @chind0na
    @chind0na3 ай бұрын

    Justamente compré una ASUS con i9 gen 13 la semana pasada para usar Ollama. Esto es genial. Gracias.

  • @jessy2819
    @jessy28193 ай бұрын

    Lo que tú digas, voy a probarlo de una vez.!!!!

  • @mauroinde
    @mauroinde3 ай бұрын

    Gracias mi Sensei

  • @videovideo166
    @videovideo1663 ай бұрын

    Excelente video man! Oiga! no habia mirado el numerito de los me gusta y las vistas! Como ha crecido el canal eh? recuerdo cuando era el unico que comentaba :P :D Grande Fatz! siga educandonos, por favor! EDIT: no que lama 3 acaba de salir? y usted ya nos está enseñando a usarlo?... lo siento, lo olvidaba... FAZT Code :D

  • @inteligenciafutura
    @inteligenciafutura3 ай бұрын

    Confío en ti porque tenés credibilidad

  • @Austin_de_Backyardigans

    @Austin_de_Backyardigans

    2 ай бұрын

    no entiendo

  • @davidvela1735
    @davidvela17353 ай бұрын

    Yo uso la extensión de black box, tiene autocompletado, pero me parece genial llama 3. Lo probaré

  • @Johan-zs9xh
    @Johan-zs9xh3 ай бұрын

    Una consulta, algo que note es que no se guarda la conversacion? o como se hace?

  • @7_Seven_7_7
    @7_Seven_7_73 ай бұрын

    Gracias bro

  • @FaztCode

    @FaztCode

    3 ай бұрын

    Con gusto :)

  • @JoShMiQueL
    @JoShMiQueL3 ай бұрын

    Yo utilizo Codium, muy similar también.

  • @sebastian-ns7ou
    @sebastian-ns7ou3 ай бұрын

    Es exelente. Sabes si podria instalarlo en mi proyecto para hacer un chat bot de whatsapp usando mis datos y evitando pagar la api de openIa? Gracias por tu aporte. siempre aprendo en tu canal

  • @brayanpuentesruiz4160
    @brayanpuentesruiz41603 ай бұрын

    Grande fazt, podrías subir un vídeo de cómo conectar node con el modelo y así poder interactuar con el directamente desde el código y usarlo en proyectos? Por favor sería de gran utilidad.

  • @dan_seb
    @dan_seb3 ай бұрын

    120 MB/s vs mis poderosos 4 MB/s

  • @user-gt6hu8jd5d
    @user-gt6hu8jd5d3 ай бұрын

    gracias por la informacion Fazt una pregunta, si tengo una gpu de amd siempre puede funcionar?

  • @pctops
    @pctops3 ай бұрын

    Fazt, podrías hacer un ejemplo de implementación de Llama 3 con algún SDK, para análisis de datos y así

  • @sDundev
    @sDundev3 ай бұрын

    ¿Se puede entrenar un modelo con tu proyecto particular para que sean mucho más específicas las respuestas del chat ?

  • @DaNiel-sq3em
    @DaNiel-sq3em3 ай бұрын

    Parcero te imaginas el poder del modelo de llama3 que tiene 400B. Es una locura!!

  • @jonabadd
    @jonabadd3 ай бұрын

    Buenas, gracias por la herramienta muy buena, yo tenia la duda de si al igual que github copilot, que depura el código y no lo almacena en sus servidores. En resumen si nuestro código no se hace publico utilizando esta herramienta. Saludos.

  • @CristianAndresMarin17
    @CristianAndresMarin173 ай бұрын

    Puedo usarlo para redactar Commits automáticamente?

  • @programmercito1812
    @programmercito18123 ай бұрын

    ollama ya tiene llama3 cool !, que modeloz uso?

  • @fr3nch0
    @fr3nch02 ай бұрын

    Excelente compa, tengo una pregunta tu que sabes más, si tú dices que llama3 fue entrenado con la información del 2022, y por eso no te muestra las nuevas características de react o cualquier otro framework, la pregunta es como puedes actualizar el modelo ? Se puede ir a Github y descargar las últimas versiones y cargarlas en el modelo y con eso podríamos tener actualizado el modelo ? O es más complicado que eso?

  • @rowilljesusbricenobarrios7680
    @rowilljesusbricenobarrios76803 ай бұрын

    help no me funciona al instalar la extencion dice que algo a salido mal que vuelva intentarlo... y se queda hay for ever como el chavismo en venezuela

  • @drincast100
    @drincast1002 ай бұрын

    me reventó el vs code noooo y lo tenia tuneado, ahora a instalar de nuevo

  • @mateoflorezjaramillo5074
    @mateoflorezjaramillo50742 ай бұрын

    Si quisiera usar un gpt que me de datos actualizados cuál recomiendas ?

  • @code_castle
    @code_castle3 ай бұрын

    puedes probrar instalando otros providers ?? gracias

  • @lucasfernandez8314
    @lucasfernandez83142 ай бұрын

    Que tema utiliza para ese video de vs code?

  • @marvinzavala5638
    @marvinzavala56383 ай бұрын

    Al utilizar Llama 3 mi CPU hace todo el proceso y mi GPU no hace nada, haciendo que sea lento y las respuestas dilatan en cargar, alguna sugerencia porfavor para utilice mi GPU, tengo una GTX 1650

  • @JoseLuis-zx2lp
    @JoseLuis-zx2lp2 ай бұрын

    ¿Cuanta ram o gpu necesito para que se ejecute correctamente?

  • @isrcas
    @isrcas3 ай бұрын

    Yo uso Codeium y si tiene autocompletado, y un chat integrado en VS Code, usa GPT-3 👍👍👍

  • @eduardodudu5695

    @eduardodudu5695

    3 ай бұрын

    es mejor, sin gastar tantos recursos. o incluso el editor del cursor.sh

  • @TheEltictacdicta

    @TheEltictacdicta

    3 ай бұрын

    ​@@eduardodudu5695 yo uso Cursor

  • @SpawN4609

    @SpawN4609

    3 ай бұрын

    @@eduardodudu5695 que les parece mejor codeium o code whisperer de aws

  • @jomoju

    @jomoju

    3 ай бұрын

    Codeium es amor, codeium es vida. Aunque ayer note que fallaba un poco

  • @isrcas

    @isrcas

    3 ай бұрын

    @@jomoju para ser gratuito esta genial

  • @camilocharry
    @camilocharry3 ай бұрын

    a mi solo me instala Ollama pero no me permite ejecutarlo ni usar la terminal

  • @juansiesquen
    @juansiesquen3 ай бұрын

    Estos modelos podrian ser compartidos para que aprenda las buenas prácticas de un grupo de desarrollo. Gracias por el aporte Crack!

  • @JoseOrtega-oz2zx
    @JoseOrtega-oz2zx2 ай бұрын

    No me funciona ,pongo consultas en el chat pero solo sale la tipica ruedecita girando en el cartel del modelo llama3:8b al lado del simbolo de home....

  • @Elba_Nanito
    @Elba_Nanito2 ай бұрын

    oye amigo Fazt podria usarlo pero con neovim?

  • @danielalejandrohernandezm8602
    @danielalejandrohernandezm8602Ай бұрын

    tengo problemas al descargar la extensión, simplemente se queda en blanco, no puedo ver nada de la extensión, ya intente deshabilitarla, reinicar el vsc y hasta reiniciar el pc y nada

  • @quizzesya
    @quizzesya3 ай бұрын

    Cuál pc tienes?

  • @jhonnybecerradelgado7781
    @jhonnybecerradelgado77812 ай бұрын

    baje todo lo que dijiste, llama 3, codellama, mistral y variossss...pero al ejecutarlo osea al usarlo en vscode va lentísimo. mi laptop asus core i9 con 32Gb de ram. y en todo es muy rápida, nose si la IA consume todo y no seria viable. no quiero ni pensar como seria con una laptop de menos especificaciones.

  • @josuegalan6358

    @josuegalan6358

    2 ай бұрын

    Puedes usar IA en tu codigo siempre que estes conectado a wifi

  • @mauroa.3434
    @mauroa.343421 күн бұрын

    hola, no me funcionó, se queda cargando la respuesta pero no pasa nada... como puedo solucionar esto? muchas gracias

  • @wilovy0993
    @wilovy09933 ай бұрын

    Estaria bueno un minitutorial de una rest api con AdonisJS

  • @SonGoku-pc7jl
    @SonGoku-pc7jl3 ай бұрын

    Gracias! Estaba en esto de hace tiempo pero había un par de cosas que no me funcionaban. Que bien que la semana que viene den autocompletado. Llama3 va mejor incluso que codegemma para código no? mola que con una 1070 que tiene unos 8vram, si configuro windows a procesar en "económico" no se calienta a 82grados como cuando lo pongo en alto rendimiento. Un poco más lento pero más vida pal pc que esta viejito aunque aguanta :)

  • @kf_11

    @kf_11

    3 ай бұрын

    Justo iba a preguntar eso jaja parece que estoy friendo huevos en el cpu, ni con los juegos pasa de 70 °C y no vi ningún comando que limite el uso de recursos o algo

  • @juanmiguelcontreras605
    @juanmiguelcontreras6052 ай бұрын

    Muchas gracias, a mi no me funciona, me imagino que puede ser por el tema de la exigencia a la tarjeta grafica. El CodeGpt esta genial, pero solo permite 5 preguntas en las demas IA

  • @joeljota6363
    @joeljota63633 ай бұрын

    Al instalarse dentro del sistema no requiere de internet entonces?

  • @FaztCode

    @FaztCode

    3 ай бұрын

    así es una ves instalado ya no requiere internet

  • @Johan-zs9xh
    @Johan-zs9xh3 ай бұрын

    Que dizes tio !!

  • @jesanabriah
    @jesanabriah3 ай бұрын

    Está genial, lo malo es que me cuesta mucho la tarjeta grafica para que me corra el llama 3 jaja

  • @lbraasesoriaparatcp1948
    @lbraasesoriaparatcp19483 ай бұрын

    Gracias bro. Y cuanto tiene que tener la máquina para que te corra esto (CPU, ram, etc..)

  • @FaztCode

    @FaztCode

    3 ай бұрын

    Te dejo el Post de Github donde especifican todo esto :) github.com/open-webui/open-webui/discussions/736

  • @LadyTrunyx

    @LadyTrunyx

    3 ай бұрын

    Consigue un portatil gaming y te quitas todos los problemas.

  • 3 ай бұрын

    Lo que me preocupa es el consumo de memoria y procesador. Tienes este detalle?

  • @FaztCode

    @FaztCode

    3 ай бұрын

    Si claro aquí lo dejo github.com/open-webui/open-webui/discussions/736#discussioncomment-8474297

  • @antoniogiraldo1496
    @antoniogiraldo14963 ай бұрын

    Viéndolo antes que lo ponga solo para miembros:(

  • @fcomosan
    @fcomosan3 ай бұрын

    y con esta implementacion, te autocompleta el codigo, asi como lo hace copilot?

  • @FaztCode

    @FaztCode

    3 ай бұрын

    Aun no, pero esta semana actualizan la extensión para que también permita autocompletar

  • @fcomosan

    @fcomosan

    3 ай бұрын

    @@FaztCode ah buena noticia. Lo dejare descargando para probarlo. Muy buen video Fatz

  • @emerson.dvlmt.g
    @emerson.dvlmt.g3 ай бұрын

    Se puede entrenar un modelo de Llama?

  • @jossejosse952

    @jossejosse952

    3 ай бұрын

    Para eso busca información como, como hacer un ajuste fino en un modelo preentrenado.

  • @davidreyna7198
    @davidreyna71982 ай бұрын

    Se podrá utilizar este asistente en una página web?

  • @FaztCode

    @FaztCode

    2 ай бұрын

    Si podrias desplegarlo en un VPS y consumirlo desde alli al estilo de la API de OpenAI

  • @arielangelsantillanreyna2947
    @arielangelsantillanreyna29473 ай бұрын

    Que genial fazt, una pregunta sabes cuales son los requisitos de hardware para ejecutar llama3?

  • @ANGHELLUZ

    @ANGHELLUZ

    3 ай бұрын

    Existen dos variantes: Llama 3 8B, si tienes un sistema con recursos limitados y Llama 3 70B, mientras cuente con un rendimiento excepcional, pero con mayores demandas de hardware. Aquí están los detalles sobre estos modelos y los requisitos de hardware para ejecutarlos localmente: 1. Llama 3 8B: - Requisitos mínimos de hardware: + RAM: Al menos 16 GB + GPU: Una GPU potente con al menos 8 GB de VRAM, preferiblemente GPU NVIDIA con soporte CUDA + Disco Duro: 4 GB 2. Llama 3 70B: - Requisitos mínimos de hardware: + RAM: 64 GB o más + GPU: Una GPU potente con al menos 8 GB de VRAM, preferiblemente GPU NVIDIA con soporte CUDA + Disco Duro: 20 GB

  • @rbnsmalca5945
    @rbnsmalca59453 ай бұрын

    es de meta?🤔

  • @_holamellamojesus
    @_holamellamojesus3 ай бұрын

    Que tema usas en vscode?

  • @FaztCode

    @FaztCode

    3 ай бұрын

    Este se llama tokyo night dark

  • @_holamellamojesus

    @_holamellamojesus

    3 ай бұрын

    @@FaztCode gracias

  • @cristianbustamante62
    @cristianbustamante623 ай бұрын

    si tengo una tarjeta de video integrada AMD Ryzen 5 3400G ¿sirve igual? ¿cuanto de ram se necesita? saludos

  • @kf_11

    @kf_11

    3 ай бұрын

    De lo que he probado, con Ryzen 3 3200G, funciona sí, pero usa 100% del CPU, para la RAM en cuanto al proceso ollama_llama_server usa 4.6 GB, de la GPU integrada es muy poco el uso 400MB aprox. Tengo 16GB de RAM a 3200MHz Resumiendo, al menos con mi procesador la temperatura se va a 82 °C con disipador stock, no recomendable jaja a menos que le bajes la energía máxima al procesador a costa de que tarde más en responder o tener un disipador muy bueno. Podrías probar a ver cómo funciona el en Ryzen 5, no pierdes nada. Solo cuestión de ver las temperaturas, posiblemente con una gráfica mejore el uso del CPU.

  • @cristianbustamante62

    @cristianbustamante62

    3 ай бұрын

    @@kf_11 gracias por tu respuesta

  • @ZeroCool22

    @ZeroCool22

    2 ай бұрын

    @@kf_11 Yo tengo: Ryzen 5900x GPU: Nvidia 1080 TI (11gb de VRAM) RAM: 32GB. Cual modelo me recomendás probar?

  • @kf_11

    @kf_11

    2 ай бұрын

    @@ZeroCool22 KZread no deja poner links, pero hay un hay un post de GitHub. Los modelos van: - Modelo 7B - 4GB VRAM - Modelo 13B - 8GB VRAM - Modelo 30B - 16GB VRAM - Modelo 65B - 32GB VRAM

  • @kf_11

    @kf_11

    2 ай бұрын

    @@ZeroCool22 En tu caso se podría al 13B

  • @RVKAWAAA
    @RVKAWAAA2 күн бұрын

    no sirve si no es en tiempo real, porque despues del 2022, muchas cosas opiamente se actualizaron

  • @JulioCampoSwork
    @JulioCampoSwork3 ай бұрын

    va a explotar mi computadora, no se si lo vale

  • @andres3665
    @andres36653 ай бұрын

    Me corre a una palabra por minuto, pero gracias.

  • @FaztCode

    @FaztCode

    3 ай бұрын

    jaja si lamentablemente aun estos modelos consumen muchos recursos de hardware, con una buena grafica se tienen que usar

  • @Christianlvm22
    @Christianlvm223 ай бұрын

    Necesito un super pc?

  • @yancedywiler
    @yancedywiler3 ай бұрын

    Fazt excelente video, gracias por compartir tu conocimiento y enseñar las cosas paso a paso. Te sigo hace tiempo, con este video aprendí a crear mi primera página HTML kzread.info/dash/bejne/pJapu9arfrjel5c.html Desde ahí me sigo capacitando y aprendiendo cada vez tecnologías nuevas, ese hecho ha cambiado mi vida y me ha abierto puertas a trabajar para empresas.

  • @tino94
    @tino943 ай бұрын

    Mi vieja GPU aparentemente no es compatible (AMD rx 570) asi que va a puro CPU 🥵

  • @Axotla
    @Axotla3 ай бұрын

    en mi maquina esta super lento

  • @FaztCode

    @FaztCode

    3 ай бұрын

    Si hasta la fecha los modelos inteligentes requieren alguna tarjeta grafica o un buen procesador para que vaya fluido

  • @CarlosHidalgoLa

    @CarlosHidalgoLa

    2 ай бұрын

    Requerimientos: Modelos Pequeños (7B - 13B parámetros): RAM 16-32 GB, CPU Intel i7/i9 o AMD Ryzen 7/9, GPU opcional de 8 GB VRAM (NVIDIA RTX 3060). Modelos Medianos (30B - 65B parámetros): RAM 32-64 GB, CPU Intel i9 o AMD Ryzen 9, GPU de 16 GB VRAM (NVIDIA RTX 3080/3090). Modelos Grandes (175B parámetros y superiores): RAM 64-128 GB, CPU Intel Xeon o AMD Threadripper, múltiples GPUs con 24 GB VRAM cada una (NVIDIA A100, RTX 3090).

  • @leviatanMX
    @leviatanMX2 ай бұрын

    lo malo es que solo se enfocan en lengujajes conocidos

  • @FaztCode

    @FaztCode

    2 ай бұрын

    Debe ser por el entrenamiento que usan

  • @Elba_Nanito
    @Elba_Nanito3 ай бұрын

    Si fazt está conmigo, ¿Quien contra mi?

  • @ThePacmanPl4y
    @ThePacmanPl4y2 ай бұрын

    La verdad es una herramienta muy simplona, y funciona solo en ingles y la verdad bastante mal, hasta con lmstudio. Nada interesante.

  • @untalbj
    @untalbj3 ай бұрын

    pta q lento xd

  • @alexanderpiero2052
    @alexanderpiero2052Ай бұрын

    Si tu pc es una mierda ni lo piense

Келесі