博文
使用 VLLM Benchmark 进行模型性能测试
· ☕ 3 分钟
VLLM Benchmark 是 VLLM 提供的一个用于测试模型性能的工具,支持多种推理后端。本文主要记录一些使用 VLLM Benchmark 进行模型性能测试的过程。 1. 启动模型服务 1 2 3 4 5 6 7 8 9 10 11 12 13 14 python -m vllm.entrypoints.openai.api_server \ --model /models/Qwen2.5-7B-Instruct \ --served-model-name /models/Qwen2.5-7B-Instruct \ --host 0.0.0.0 \ --port 8000 \ --trust-remote-code \ --dtype bfloat16 \ --gpu-memory-utilization 0.90 \ --max-model-len 4096 \ --max-seq-len-to-capture 8192 \ --max-num-seqs 128 \ --disable-log-stats \ --tensor-parallel-size 1 \ --no-enable-prefix-caching 2. 启动客户端

眼看他拔地起,眼看他化作泥 - KubeSphere
· ☕ 3 分钟
1. 打脸式删库删镜像删文档 发起人 Ray 在职青云科技的最后一天,开源项目 KubeSphere 的前端、文档、镜像被删除,用户在各种渠道收到【关于 KubeSphere 开源项目调整的公告】。 即使,这家公司管理层对 KubeSphere 分歧很大,对某些人有针对性、有敌意,也不至于如此粗暴与迅速。只能说,这事办得

history 命令使用
· ☕ 1 分钟
1. history 命令 使用 history 命令可以查看当前会话的命令历史记录,当退出 shell 时,命令历史会被保存到对应的历史文件中。 如果是 bash,则命令历史会保存在 ~/.bash_history 文件中;如果是 zsh,则保存在 ~/.zsh_history 文件中。也可以使用 HISTFILE 环境变量来指定历史记录文件的位置,export HISTFILE=/data/ops/bash_history 。 2. 如

AI 相关论文
· ☕ 3 分钟
2025 Intrinsic Fingerprint of LLMs [发布日期: 07-04] 点击查看 论文提出了一种基于注意力参数矩阵(Q/K/V/O)层间标准差分布模式的鲁棒指纹识别方法,用于检测大型语言模型(LLM)的血缘关系(如是否通过继续训练/微调/升级再造衍生自另一模型),并声称该方法揭示了华为 Pangu Pro

在服务器上使用 Gemini CLI
· ☕ 3 分钟
1. 获取项目 ID 和 API 密钥 访问 https://aistudio.google.com/apikey 获取项目 ID 和 API 密钥,并设置为环境变量 1 2 echo "export GOOGLE_CLOUD_PROJECT=" >> ~/.bashrc echo "export GEMINI_API_KEY=" >> ~/.bashrc 1 source ~/.bashrc 2. 准备 node.js 环境 安装 nvm 1 curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.40.3/install.sh | bash 1 2 echo 'export NVM_DIR="$([ -z "${XDG_CONFIG_HOME-}" ] && printf %s "${HOME}/.nvm" || printf %s "${XDG_CONFIG_HOME}/nvm")"' >> ~/.bashrc echo '[ -s "$NVM_DIR/nvm.sh" ] && \. "$NVM_DIR/nvm.sh"' >> ~/.bashrc 1 source ~/.bashrc 查看 nvm 版本 1 nvm --version 安装 node.js 1 nvm install 20 升级 npm 1 npm install -g npm 3. 安装 gemini 1