Linux 安装 Ollama 并自定义环境变量
安装 Ollama curl -fsSL https://ollama.com/install.sh | sh 自定义环境变量 网上的教程都是在让直接修改 /etc/systemd/system/ollama.service ,但是这样会导致更新ollama后配置被覆盖,正确配置方法: sudo m
Linux Mint 使用 fcitx5 + Rime + 雾凇拼音
本文介绍如何在Linux Mint上配置fcitx5,并集成的雾凇拼音:Rime-ICE。 安装Fcitx5和Rime # 更新包列表
sudo apt update
# 安装Fcitx5及相关组件
sudo apt install fcitx5 fcitx5-chinese-addons fci
使用llama.cpp将hf模型转为gguf格式并量化为q4_k_m
此文将介绍如何使用 llama.cpp 将 ModelScope 上的 Qwen/Qwen3-4B-Instruct-2507 模型转换为 GGUF 格式 ,并进一步量化为 q4_k_m 类型。 一、准备工作 1. 安装 uv
GIT SSH 公钥认证失败:解决 no mutual signature algorithm 问题
背景 最近在工作中需要从 Gerrit 上克隆一个项目仓库,但在使用 SSH 方式克隆时遇到了如下错误: Permission denied (publickey).
fatal: Could not read from remote repository. 尽管我已经确认 SSH 密钥已正确添加到
Rust Axum 接口中断的研究
在使用axum写接口handle的时候,有时候会遇到接口处理资源消耗多、时间长的情况,由于时间比较长,客户端有可能会断开连接,同时axum后端也会在适合的时候中断handle的执行,本文研究了中断的时机。 如下代码写了一个示例,其中sleep是使用的同步的,为了展示其无法中断的特性。 async f
Linux上Wine初体验
环境 Linux Mint22 (Ubuntu 22) x86 安装Wine 添加 32 位架构的支持 sudo dpkg --add-architecture i386 安装 sudo apt up
llama-cpp-rs构建的相关错误记录
克隆仓库 git clone --recursive https://github.com/utilityai/llama-cpp-rs
cd llama-cpp-rs 构建 cargo build --release --bin simple --features cuda 一、报错 /home/
git-cliff自动管理changelog.md
# 安装
cargo install git-cliff
# 生成changelog.md
git cliff --tag v1.0.0 -o CHANGELOG.md