[开源项目] 基于WebGPU的免安装本地AI聊天机器人 (开发中)
2023-4-15 23:22:8 Author: www.landiannews.com(查看原文) 阅读量:28 收藏

早前谷歌在 Google Chrome Canary 版里发布了 WebGPU 项目,该项目可以让开发者基于浏览器调用本机显卡算力。

所以在 GitHub 上有开源团队构建了 Web-LLM 项目,即基于 Web 的大型语言模型,一切都在浏览器内运行,不需要服务器支持、不需要安装、直接利用 WebGPU 特性运行。

这个项目可以大幅度简化搭建 AI 聊天机器人的步骤,而且可以保护隐私,因为这个 AI 模型是 “你” 控制的,你提交的数据不会被共享给开发者进行模型训练。

这个项目还在开发中,有兴趣的开发者可以参与该项目。

[开源项目] 基于WebGPU的免安装本地AI聊天机器人 (开发中)

当然由于是相当于在本地运行的,所以显卡性能至关重要,根据开源团队说明, 显存至少需要 6.4GB,所以如果你的显卡显存比较小的话可能无法运行。

必要条件:Google Chrome 113.0+、显存至少为 6.4GB,使用不同的模型显存要求可能还会增加。

项目地址:https://github.com/mlc-ai/web-llm

演示地址:https://mlc.ai/web-llm/#chat-demo

注:演示聊天使用的模型是 vicuna-7b-v0。

版权声明:感谢您的阅读,除非文中已注明来源网站名称或链接,否则均为蓝点网原创内容。转载时请务必注明:来源于蓝点网、标注作者及本文完整链接,谢谢理解。


文章来源: https://www.landiannews.com/archives/98381.html
如有侵权请联系:admin#unsafe.sh