本地Ollama模型做AI纠正报错

在使用本地Ollama模型来作为AI纠正的时候,它老是报错。一直去报这个错误,

测试失败: error sending request for url (http://localhost:11434/api/chat)

我的终端显示的是可以连接的啊,模型的名称我写的也是完全正确的。无论启不启用这个函数调用,它都是有这个报错的。

Please authenticate to join the conversation.

Upvoters
Status

In Review

Board
💡

Feature Request

Date

2 months ago

Author

朱tom

Subscribe to post

Get notified by email when there are changes.