termux环境下部署大语言模型测试了一下基本属于可用状态在termux环境下安装ollama服务apt install ollama开启ollama服务ollama serve开启新的窗口拉模型,由于是小手机直接拉1.5b模型cpu硬算ollama pull deepseek-r1:1.5b然后启动就可以了ollama run deepseek-r1:1.5b