MENU

Fun & Interesting

¿Cómo funcionan los LLMs locales? Usa IA local y privada en tus apps

Julio Andres Dev 5,322 4 months ago
Video Not Working? Fix It Now

¿Por que es difícil ejecutar un modelo de lenguaje en tu computador personal? Te explico como funcionan los LLMs locales, y como usar Ollama para crear tus propias apps locales. 🤖 Curso "Crea apps con Inteligencia Artificial desde cero": https://julioandres.dev/curso-inteligencia-artificial 🚀 ¿Quieres concretar un proyecto de Inteligencia Artificial y no sabes como empezar, o como abordarlo? Agendame una reunión y hablemos: https://cal.com/julioandres/consultoria-ia ► Cursos 🦀 Mi curso de Rust con descuento: https://julioandres.dev/curso-completo-rust 📲 Mi curso de Flutter con descuento: https://julioandres.dev/curso-flutter-dart ► Sígueme por acá https://twitter.com/julioandresdev https://www.instagram.com/julioandresdev/ https://www.linkedin.com/in/julio-andres-olivares/ 00:00 ¿Cómo funcionan las IA locales? 03:34 Quantization 05:13 Instalar y usar Ollama 13:54 Servidor IA local con Ollama 18:43 Usa LLMs local de Ollama en tus propias apps 24:37 Usa tu base de datos con tu IA local

Comment