拉取最新版本的 Lobe Chat 镜像:

$ sudo docker pull lobehub/lobe-chat:latest

使用以下命令来运行 Lobe Chat 容器:

$ sudo docker run -d --name lobe-chat -p 10084:3210 -e OPENAI_API_KEY=sk-xxxx -e OPENAI_PROXY_URL=https://api.openai.com/v1 -e ACCESS_CODE=lobe66 lobehub/lobe-chat:latest

-d (后台运行容器)--name (给容器起一个名字方便管理)-p 10084:3210 (将容器的3210端口映射到主机的10084端口, 同时指定TCP协议)-e OPENAI_API_KEY=sk-xxxx (OpenAI API Key)-e OPENAI_PROXY_URL=https://api.openai.com/v1 (OpenAI 接口代理, 默认为官方接口)-e ACCESS_CODE=lobe66 (访问 LobeChat 服务的密码)

通过 sudo docker ps 命令查看容器的运行信息:

$ sudo docker ps

CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES

ee929a37e34e lobehub/lobe-chat:latest "docker-entrypoint.s…" 9 minutes ago Up 9 minutes 0.0.0.0:10084->3210/tcp, :::10084->3210/tcp lobe-chat

现在可以通过 IP 或配置好的域名访问搭建好的 Lobe Chat 服务:

需要注意的是, 在使用之前需要配置好前面设置的访问 Lobe Chat 服务的密码:

同时, 使用时, 按需要选择合适的模型:

可以参考以下内容选择合适的模型:

如何根据自己的需求选择合适的模型?

用途推荐模型日常对话、翻译插件、YouTube总结/搜索总结插件等场景gpt-3.5-turbo需要较高的推理能力, 如写代码、协助写论文等场景gpt-4需要模型接收图片并回答与之相关的问题gpt-4-vision

4K、8K、16K、32K是什么意思?

这是 token 长度的缩写, 4K 表示 4096 个 token, 以此类推。其中, 1 个汉字约为 2 个 token, 因此 4K 的接口约能处理 2000 个汉字, 以此类推。

gpt-4-32k 是否比 gpt-4 更聪明?

不是, 这 2 个模型是一样的, 都是 gpt-4,只是支持的 token 长度不一样。

插件

通过 Lobe Chat 的插件可以扩展更多的玩法, 插件的安装入口如下:

建议插件只在需要使用时再启用, 避免不同插件之间互相影响。

授粉绘画

插件 授粉绘画 是通过 pollinations.ai 进行图像生成的对话式绘图插件。通过插件菜单安装插件:

完成安装后启用插件:

当前会话窗口选择使用 gpt-4 模型:

然后就可以通过对话, 让 AI 理解我们的意图, 生成绘图提示词, 并调用 pollinations.ai 完成绘图:

绘图对话的连续性范围是当前会话窗口, 不能跨多个会话窗口理解意图。

思维导图

插件 思维导图 是一个根据用户的描述, 生成符合需求的大纲, 并以思维导图的形式展现的插件。通过插件菜单安装插件并启用:

同样的, 当前会话窗口需要选择使用 gpt-4 模型:

然后就可以通过输入思维导图的主题, 让 AI 根据我们的主题, 生成思维导图的大纲图:

插件生成的思维导图至少有 4 个层级。

网站爬虫

插件 网站爬虫 是从网页链接中提取内容的插件。通过插件菜单安装插件并启用, 同时选择使用 gpt-4 模型:

然后就可以输入需要提取的网页链接, 让 AI 去提取和总结网站的内容, 并汇总给我们:

精彩文章

评论可见,请评论后查看内容,谢谢!!!
 您阅读本篇文章共花了: