chat - Hello World
v3.1.0 后支持
1、部署本地大语言模型
借用 ollama 部署 llama3.2 模式(这个比较小,1G大小左右)
ollama run llama3.2
具体可参考:ollama 部署本地环境
2、开始新建项目
可以用 Solon Initializr 生成一个模板项目。新建项目之后,添加依赖:
<dependency>
<groupId>org.noear</groupId>
<artifactId>solon-ai</artifactId>
</dependency>
3、添加应用配置
在 app.yml
应用配置文件里,添加如下内容:
solon.ai.chat:
demo:
apiUrl: "http://127.0.0.1:11434/api/chat" # 使用完整地址(而不是 api_base)
provider: "ollama" # 使用 ollama 服务时,需要配置 provider
model: "llama3.2"
4、代码应用
在项目里,添加一个 DemoConfig。概构建 ChatModel,也做测试。
@Configuration
public class DemoConfig {
@Bean
public ChatModel build(@Inject("${solon.ai.chat.demo}") ChatConfig config) {
return ChatModel.of(config).build();
}
@Bean
public void test(ChatModel chatModel) throws IOException {
//一次性返回
ChatResponse resp = chatModel.prompt("hello").call();
//打印消息
System.out.println(resp.getMessage());
}
}