研发
HuggingFace 的模型和数据操作
· ☕ 3 分钟
HuggingFace 通过提供共享模型 model、数据集 dataset、在线托管 space 等服务,为 AI 研究人员和开发者提供了一个完整的生态。本篇文章将介绍如何使用 HuggingFace 的模型和数据集。 1. 模型操作与使用 1.1 自定义存储目录 1 export HF_HOME=/Volumes/Data/HuggingFace 否则默认在 ~/.cache/huggingface 目录下。 1.2 模型的下载 第一种方法,页面上

使用 OpenAI 和 Langchain 通过对话直接调用函数
· ☕ 5 分钟
1. 大模型与 Langchain 很多人可能没有机会训练、甚至微调大模型,但对大模型的使用却是未来趋势。那么,我们应该如何拥抱这一变化呢?答案就是 Langchain。 大模型提供的是一种泛而通用的基础能力,目前,我看到的有两种主要落地方式: 基于生成能力的 AIGC,

GitHub Copilot Chat 使用
· ☕ 2 分钟
1. 申请使用 GitHub Copilot Chat 申请链接 https://github.com/github-copilot/chat_waitlist_signup/join 申请通过之后,会收到一封邮件: 2. 什么是 VS Code insiders 什么是 VS Code insiders VS Code insiders 是 VS Code 的预览版本,提供一些最新的功能和改进,更新非常频繁。如果有更新强迫症,慎重使用,因为几乎每天都有更新。 VS Code 和 VS Code insiders 的区别 VS Code 的命令行是 code ,logo

使用 Nodejs 代理 Https 请求到依赖的研发服务
· ☕ 2 分钟
1. 背景 微服务架构下,服务与服务的依赖关系复杂。在开发过程中,多个服务之间经常需要联调。此时有两种方式: 将服务部署到线上开发环境 Kubernetes 集群 使用 telepresence 打通本地与线上集群的通信,这样能获得一个比较稳定的联调环境。 缺点是,需要生成足够权限的凭证、需要研发人

使用 Go 编写 WebAssembly 程序
· ☕ 4 分钟
1. WebAssembly 简介 跨平台性,可以在任何支持 WebAssembly 的平台上运行,包括 Web 浏览器、服务器、移动设备等 高性能,采用了一种紧凑的二进制格式,可以在浏览器中快速加载和解析,从而提高应用程序的性能 安全性,采用了一种沙箱模型,可以隔离运行在其中的代码,从而保护系统免受恶