MENU

Fun & Interesting

Ollama本地部署DeepSeek-R1远程调用!构建知识库保姆级【云飞教程】

Video Not Working? Fix It Now

咱也是使用本地的大模型搞了俩个方向了,还是蛮多意外的点,Ollama其实搞起来也不算复杂,希望大家都可以去试试,是真的得拥抱AI啦! 同样也是win和Mac都适用,希望你们能够喜欢 关于模型的选择 没有GPU就选择最小的1.5B,压力比起LM studio来说会更低一点点 其他的其实你大可自己试一下,自己找到合适的模型, 显存容量刚好占满就好了 然后再更新一下我win电脑的配置,给大家一个小参考 配置单 处理器 i5-13600KF 显卡 电竞判客 RTX 4070Super 硬盘 铠侠SD10 1T 内存 玖合 DDR5 6000MHz 16G*2 国内下载链接我就放在评论区啦,大家有需要去下

Comment