项目介绍
支持高速流式输出、支持多轮对话、支持联网搜索、支持长文档解读、支持图像解析,零配置部署,多路token支持,自动清理会话痕迹。
与ChatGPT接口完全兼容。
github地址: /LLM-Red-Tea…
虽然Kimi新用户注册后会免费赠送 15 元额度。如果赠送额度用完了,你还想继续免费体验,那么,这个开源项目一定要试试。以下几个大模型也是一样。
阶跃星辰 (跃问StepChat) 接口转API step-free-api:/LLM-Red-Team/step-free-api
阿里通义 (Qwen) 接口转API qwen-free-api:/LLM-Red-Team/qwen-free-api
ZhipuAI (智谱清言) 接口转API glm-free-api:/LLM-Red-Team/glm-free-api
秘塔AI (metaso) 接口转API metaso-free-api:/LLM-Red-Team/metaso-free-api
聆心智能 (Emohaa) 接口转API emohaa-free-api:/LLM-Red-Team/emohaa-free-api
接入准备
- 从 获取refresh_token
进入kimi随便发起一个对话,然后F12打开开发者工具,从Application > Local Storage中找到refresh_token的值,这将作为Authorization的Bearer Token值:Authorization: Bearer TOKEN
_20240414230519.jpg
- 多账号接入
目前kimi限制普通账号每3小时内只能进行30轮长文本的问答(短文本不限),你可以通过提供多个账号的refresh_token并使用,拼接提供:
Authorization: Bearer TOKEN1,TOKEN2,TOKEN3
每次请求服务会从中挑选一个。
Docker-compose部署服务
- 创建文件
在部署目录下创建docker-compose.yml文件,写入以下内容:
yaml
version: '3.3' services: kimi-free-api: container_name: kimi-free-api image: vinlic/kimi-free-api:latest restart: always ports: - "8000:8000" environment: - TZ=Asia/Shanghai
- 启动服务
在文件的同级目录下使用以下命令启动服务
docker-compose up -d
使用接口
- 配置模型
我们此处是以dify
为例使用的,使用其它开源服务也是可以的,比如chatgpt-next-web-proxy
,lobe-chat
等。
在dify
的设置-->模型供应商->模型列表中选择OpenAI-API-compatible
->添加模型
添加如下内容:
内容填写完毕后点击保存,这样我们模型就配置完毕了
- 测试api
模型配置完毕后我们在dify的工作室中创建一个简单的聊天应用
创建完成后发布,我们在探索中使用这个应用
可以看到,我们已经可以使用这个api接口了。
总结
Kimi-free-api项目的出现,不仅为AI爱好者和开发者提供了便利,也推动了开源社区的发展。通过这些工具,我们可以更加便捷地探索AI的无限可能,共同期待未来AI技术带来的更多惊喜。