免费使用Kimi的API接口,kimi-free-api真香

时间:2024-10-28 07:41:39

项目介绍

支持高速流式输出、支持多轮对话、支持联网搜索、支持长文档解读、支持图像解析,零配置部署,多路token支持,自动清理会话痕迹。

与ChatGPT接口完全兼容。

github地址: /LLM-Red-Tea…

_20240414225639.jpg

虽然Kimi新用户注册后会免费赠送 15 元额度。如果赠送额度用完了,你还想继续免费体验,那么,这个开源项目一定要试试。以下几个大模型也是一样。

阶跃星辰 (跃问StepChat) 接口转API step-free-api:/LLM-Red-Team/step-free-api

阿里通义 (Qwen) 接口转API qwen-free-api:/LLM-Red-Team/qwen-free-api

ZhipuAI (智谱清言) 接口转API glm-free-api:/LLM-Red-Team/glm-free-api

秘塔AI (metaso) 接口转API metaso-free-api:/LLM-Red-Team/metaso-free-api

聆心智能 (Emohaa) 接口转API emohaa-free-api:/LLM-Red-Team/emohaa-free-api

接入准备

  • 获取refresh_token

进入kimi随便发起一个对话,然后F12打开开发者工具,从Application > Local Storage中找到refresh_token的值,这将作为Authorization的Bearer Token值:Authorization: Bearer TOKEN

_20240414230519.jpg

_20240414230519.jpg

  • 多账号接入

目前kimi限制普通账号每3小时内只能进行30轮长文本的问答(短文本不限),你可以通过提供多个账号的refresh_token并使用,拼接提供:

Authorization: Bearer TOKEN1,TOKEN2,TOKEN3

每次请求服务会从中挑选一个。

Docker-compose部署服务

  • 创建文件

在部署目录下创建docker-compose.yml文件,写入以下内容:

 

yaml

version: '3.3' services: kimi-free-api: container_name: kimi-free-api image: vinlic/kimi-free-api:latest restart: always ports: - "8000:8000" environment: - TZ=Asia/Shanghai

  • 启动服务

在文件的同级目录下使用以下命令启动服务

 

docker-compose up -d

使用接口

  • 配置模型

我们此处是以dify为例使用的,使用其它开源服务也是可以的,比如chatgpt-next-web-proxy,lobe-chat等。

dify的设置-->模型供应商->模型列表中选择OpenAI-API-compatible->添加模型

_20240414232103.png

添加如下内容:

_20240414232933.jpg

内容填写完毕后点击保存,这样我们模型就配置完毕了

  • 测试api

模型配置完毕后我们在dify的工作室中创建一个简单的聊天应用

_20240414233325.jpg

创建完成后发布,我们在探索中使用这个应用

_20240414233607.jpg

可以看到,我们已经可以使用这个api接口了。

总结

Kimi-free-api项目的出现,不仅为AI爱好者和开发者提供了便利,也推动了开源社区的发展。通过这些工具,我们可以更加便捷地探索AI的无限可能,共同期待未来AI技术带来的更多惊喜。