style(ai): 格式化 AI API 错误消息和调整 AI 视图布局

- 格式化 Ollama 和 OpenAI API 的错误消息字符串以提高可读性
- 移除 AI 视图中的 BaseURL 输入字段并硬编码为固定端点
- 简化 AI 视图中 API 调用的基础 URL 配置逻辑
- 修复多个组件中的代码格式和空格缩进问题
- 清理经销商订单视图中的多余注释和代码结构
- 调整表单组件的标签和布局格式以提升用户体验
This commit is contained in:
2026-02-28 00:53:26 +08:00
parent cc01095107
commit 91708315f3
17 changed files with 846 additions and 796 deletions

View File

@@ -1,7 +1,6 @@
<script setup lang="ts">
import { computed, onBeforeUnmount, ref } from 'vue';
import { message } from 'ant-design-vue';
import { OLLAMA_API_URL } from '@/config/setting';
import {
listOllamaModels,
ollamaChat,
@@ -11,8 +10,9 @@
type Msg = OllamaChatMessage;
// Only keep Ollama native API mode.
const baseURL = ref<string>(OLLAMA_API_URL);
// Hardcode endpoint to avoid going through mp.websoft.top `/proxy`.
// The API methods append `/api/*` paths.
const BASE_URL = 'https://ai-api.websoft.top';
const modelLoading = ref(false);
const models = ref<Array<{ id: string; name?: string }>>([]);
@@ -46,11 +46,8 @@
modelLoading.value = true;
errorText.value = '';
try {
if (!baseURL.value.trim()) {
baseURL.value = OLLAMA_API_URL;
}
const res = await listOllamaModels({
baseURL: baseURL.value.trim() || OLLAMA_API_URL
baseURL: BASE_URL
});
models.value = (res.models ?? []).map((m) => ({
id: m.name,
@@ -100,7 +97,7 @@
options: { temperature: temperature.value }
},
{
baseURL: baseURL.value.trim() || OLLAMA_API_URL,
baseURL: BASE_URL,
signal: controller.signal,
onDelta: (t) => {
assistantText.value += t;
@@ -115,7 +112,7 @@
options: { temperature: temperature.value }
},
{
baseURL: baseURL.value.trim() || OLLAMA_API_URL,
baseURL: BASE_URL,
signal: controller.signal
}
);
@@ -165,16 +162,6 @@
description="支持Qwen3.5、DeepSeek、Gemini3等主流的开源大模型免费使用"
/>
<a-row :gutter="12">
<a-col :xs="24" :md="12">
<a-input
v-model:value="baseURL"
addon-before="BaseURL"
placeholder="http://localhost:11434"
/>
</a-col>
</a-row>
<a-row :gutter="12">
<a-col :xs="24" :md="12">
<a-select