前言

写本篇文章是因为我经历过了各种付费+测试之后很艰难想入手大模型,国内的同学学技术还是太困难了,但是看到市面上各种火爆,实在有按捺不住想体验,终于迎来了一个契机。

在此之前,应该大家都了解OpenAPI,确实强大,但是国内用户来说,有以下问题: 一、网络不通,这里还不是简单的翻墙的问题,是他的网站都不对中国大陆开放,政治因素就不谈了 二、贵这玩意其实是按调用次数收费的,厉害点的功能其实都要收费,还是美元 三、其实中文方面还是没有那么强了 基于这些因素,导致大模型的事情总是少数人在玩,没意思,今天我们要把价格打到零!!

契机

开源大模型运行平台

Ollama,这是是一个开源的大语言模型平台,它允许用户在本地环境中运行、创建和共享大型语言模型。Ollama提供了丰富的功能和特性,使得用户可以在自己的计算机上轻松地部署和运行大型语言模型。注意啦,是自己的机器就可以哦! 上链接 https://ollama.com/

中文大模型

阿里巴巴的通义千问,开源国产的,听得懂中文 上链接 https://github.com/QwenLM

用户友好API接口

langchain其实是一套规范化的API,实现了标准化对模型的集成、接入、组件化等工作,通过langchain用户可以很轻松打造属于自己的大模型产品。langchain很早就出来了,大模型出来的时候,因为对使用大模型的定制做了封装,也是一下子火爆起来了。 上链接 https://github.com/langchain-ai/langchain

到此为止,其实万事俱备,我们就是要通过ollama+langchain+通义千问搞一把自己的大模型。

安装ollama

下载并安装

现在官网其实没有那么多乱七八糟的,直接一进去就是一个下载按钮,点就是了 点进去下载安装包,即可mac,linux,windows都行 我的是苹果系统,上面提到说要升级macOS 11,我的是10.15.7没影响,可以运行。下载之后就是安装了,没啥门槛。

下载模型

进入终端

ollama run + 模型名

模型在官网上直接罗列了一批,每个模型都要点硬盘,大家按照自己的需求下载,没有列出来的,可以在模型仓库里面找 https://ollama.com/library 我们这次是要下载通义千问,可以去仓库里面搜索到

ollama run qwen

这个命令其实是运行对应模型的意思。在运行之前,如果本机没有下载的话会去仓库上下载模型,需要等等。

使用模型-调戏大模型

下载之后会帮我们运行起来,是一个命令行模式的交互式接口,我们就可以开始调戏我们的大模型啦。大概就是下面这样,

B:~ zhuxuemin$ ollama run qwen

>>> 你是谁呀

我是通义千问,是由阿里云开发的语言模型。我被设计成能够回答各种问题、提供信息和进行对话。如果您有任何问题或需要帮助,请随时告诉我,我会尽力提供支持。

>>> 给我做一首关于春天的诗,要求是7言律诗

春天的阳光明媚,

绿草如茵,鲜花盛开。

春风吹过田野,

稻谷摇曳生姿。

小鸟在树梢上欢快地歌唱,

春风轻轻地吹拂着它们的羽毛

不满意,再来一下

>>> 给我做一首关于春天的诗,要求是7言律诗

春风拂面轻,

绿草如茵春意浓。

桃花笑映朝霞红,

小鸟欢歌春色正。

春风吹过田野广,

稻谷摇曳生姿显。

春天是希望的季节,

让我们一起感受春的气息,感受生活的美好。

使用langchain跑起来

langchain是python的库,我们其实是希望按照我们的程序跑起来啦,这样子我们才可以放到微信里面,钉钉里面,或者嵌入到网站上面,变成美女客服啦。

环境准备

python开发要养成习惯,尽量使用隔离的环境去做项目,不然很多乱七八糟的报错说不清楚。

--安装虚拟环境

# 创建一个名为 llvm 的虚拟环境

python3 -m venv llvm

# 激活虚拟环境

source llvm/bin/activate

安装库

其实有了langchain就好了,但是后面运行代码的时候会提示你升级,一起给出来好了

pip install langchain

pip install -U langchain-community

注意了,其实我安装的时候毕竟慢,我就会尝试使用阿里云的pip仓库,但是我又不想改掉默认的配置,可以这样子安装:

pip install langchain --index-url https://mirrors.aliyun.com/pypi/simple

当然,我安装实际也没有那么完美,还是报了错greenlet包安装失败,我就手工安装一把。

pip install greenlet

代码跑起来

代码到还好,来一个例子跑起来:

from langchain.prompts import PromptTemplate

from langchain.chains import LLMChain

from langchain_community.llms import Ollama

prompt_template = "请写一首关于{product}的诗,我希望是七言律诗"

ollama_llm = Ollama(model="qwen:latest")

llm_chain = LLMChain(

llm = ollama_llm,

prompt = PromptTemplate.from_template(prompt_template)

)

result=llm_chain.invoke("春天")

print(result)

输出:

{'product': '春天', 'text': '春光融宇宙,万物皆春色。\n\n鸟语花香中,一树桃花映日红。\n'}

这样子一就整个流程跑通啦~~

使用langchain-java跑起来

我可是Java程序员,我知道看我博客的人肯定是Java同学比较多,大家看完之后肯定恨不得立马在自己的Spring项目里面run起来,可是搞来搞去都是python的,不慌,我们就用java跑起来。

当然,使用的项目自然是对应的java版本,想多研究的可以直接去看源码 上链接 https://github.com/HamaWhiteGG/langchain-java

构建maven工程

主要核心点是引入包,官网也说了,项目运行是建议jdk17以上,我们就直接在maven中指定好,我给出完整的文件,主打一个方便抄:

xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"

xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">

4.0.0

org.example

llvm_client

1.0-SNAPSHOT

17

17

io.github.hamawhitegg

langchain-core

0.2.1

例子源码里面都有的啦,拿过来稍微改改即可,上代码:

public class OllamaExample {

public static void main(String[] args) {

var llm = Ollama.builder()

.baseUrl("http://localhost:11434")

.model("qwen:latest")

.temperature(0f)

.build()

.init();

var result = llm.predict("给我写一首关于春天的诗,我希望是七言律诗");

System.out.println(result);

}

}

跑起来,嗯,效果还行:

后记

当然这个只是初步,我其实还测试了定制自己的大模型,后面加文章哈,如果中间碰到问题的话可以留言联系我,我都好说的,就这样~~

精彩链接

评论可见,请评论后查看内容,谢谢!!!
 您阅读本篇文章共花了: