¿Por que es difícil ejecutar un modelo de lenguaje en tu computador personal? Te explico como funcionan los LLMs locales, y como usar Ollama para crear tus propias apps locales.
🤖 Curso "Crea apps con Inteligencia Artificial desde cero":
https://julioandres.dev/curso-inteligencia-artificial
🚀 ¿Quieres concretar un proyecto de Inteligencia Artificial y no sabes como empezar, o como abordarlo? Agendame una reunión y hablemos: https://cal.com/julioandres/consultoria-ia
► Cursos
🦀 Mi curso de Rust con descuento: https://julioandres.dev/curso-completo-rust
📲 Mi curso de Flutter con descuento: https://julioandres.dev/curso-flutter-dart
► Sígueme por acá
https://twitter.com/julioandresdev
https://www.instagram.com/julioandresdev/
https://www.linkedin.com/in/julio-andres-olivares/
00:00 ¿Cómo funcionan las IA locales?
03:34 Quantization
05:13 Instalar y usar Ollama
13:54 Servidor IA local con Ollama
18:43 Usa LLMs local de Ollama en tus propias apps
24:37 Usa tu base de datos con tu IA local