From 3b9be3b3683a9ca019a27ebcb71bf8c8f6be2e98 Mon Sep 17 00:00:00 2001 From: heimanba <371510756@qq.com> Date: Wed, 26 Feb 2025 10:09:31 +0800 Subject: [PATCH] update By Robot2025-02-26 10:09:31 --- .../Higress-gvr7dx_awbbpb_pskdldqp5qc295hz.md | 94 +++++++++++++++++++ 1 file changed, 94 insertions(+) create mode 100644 src/content/blog/Higress-gvr7dx_awbbpb_pskdldqp5qc295hz.md diff --git a/src/content/blog/Higress-gvr7dx_awbbpb_pskdldqp5qc295hz.md b/src/content/blog/Higress-gvr7dx_awbbpb_pskdldqp5qc295hz.md new file mode 100644 index 0000000000..35457ab7ae --- /dev/null +++ b/src/content/blog/Higress-gvr7dx_awbbpb_pskdldqp5qc295hz.md @@ -0,0 +1,94 @@ +--- +title: "上线第一天,总结 Qwen.ai 的5个体验亮点,让人停不下来" +description: "上线第一天,总结 Qwen.ai 的5个体验亮点,让人停不下来" +date: "2025-02-26" +category: "article" +keywords: ["Higress"] +authors: "CH3CHO" +--- + +作者:望宸 + +DeepSeek 依旧很火,元宝广告也还很多,但是今天刚上线的 qwen.ai 的体验是真的不错,为自家的大模型站台一波。 + + + +通义今天发布了 QwQ-Max-Preview,并上线 qwen.ai 提供模型体验。笔者快速体验了一下,qwen.ai 让人眼前一亮,以下是总结的5个亮点。 + + + +## 亮点一:历史对话,提供分组功能 +大模型在不同人群中的温差还比较大,但科技领域的从业者几乎已经每天都会使用大模型,工作、生活都会通过 AI 寻找答案或者验证想法。但是,对话越多,查阅历史对话的负担就越重,虽然相同的问题可以再问一遍,但是给出的答案是完全不同的,并且有可能之前的那一次提问才是我现在要的那个答案。 + + + +qwen.ai 提供了历史对话的分组功能,可以对历史对话进行分组,查阅历史对话更加高效。 + +![](https://intranetproxy.alipay.com/skylark/lark/0/2025/png/133108/1740467117149-8e6a11a0-1b16-4fa4-b4b2-9844ef96dcee.png) + + + +## 亮点二:提供临时对话功能,友好信息洁癖人群 +我们可以打开自己的主用大模型对话应用,左侧是不是躺着一堆历史对话信息,相信不少对话都是临时需求,是不需要存储在历史对话里的。虽然大模型们都提供了历史对话的删除功能,但将临时对话前置在发起对话前,相信这一功能的使用率会远高于历史对话的删除功能。 + + + +qwen.ai 提供临时对话功能,对于有信息洁癖的人群简直是福音,且在历史对话分组的基础上,临时对话功能这一能力效果会更好。 + + + +体验排序:临时对话+历史对话分组 + 历史对话删除 > 历史对话分组 + 历史对话删除 > 历史对话删除 + +![](https://intranetproxy.alipay.com/skylark/lark/0/2025/png/133108/1740469344382-6d400d8d-2e82-440a-bffb-b23f4481b0e6.png) + + + +## 亮点三:支持人为删除搜索来源,重新生成内容 +联网搜索是一把双刃剑,好处是能基于实时的互联网内容,再进去推理;坏处是大模型对质量较低的互联网内容的甄别能力一般,很多生成内容质量不如人意,是因为被低质量的搜索来源干扰了。所有,对于实时信息需求不高的搜索请求,但追求推理能力的情况,我通常会关闭联网搜索功能。 + + + +qwen.ai 支持人为删除搜索来源,重新生成内容,在第一次的内容生成情况下,可以对对话右边的搜索来源进行筛选,对内容质量较低或者明显存在错误信息的来源进行删除,从而提升生成质量。 + +![](https://intranetproxy.alipay.com/skylark/lark/0/2025/png/133108/1740468087374-b52a484e-cc89-4e00-bf5f-468a696d03f6.png) + + + +## 亮点四:提供聊天概览,全链路视角审核和挑选生成内容 +上下文是大模型对话的重要特性。我们通常会基于一个话题和大模型进行多轮对话,以获取更多、更全、更高质量的信息,但是轮次一旦多于5次,希望全链路追溯上下文以获得更清晰的对话过程,体验会非常难受,需要不断的对鼠标进行上下滚动,再加上大模型的生成内容很多,几乎无法实现我们的意图。 + + + +qwen.ai 提供聊天概览,让我们得以全链路观测对话过程,点击右侧的模块,左侧内容就会自动跳转到相应的生成内容。 + +![](https://intranetproxy.alipay.com/skylark/lark/0/2025/png/133108/1740468186773-cedf148b-2c3c-4cf8-801c-5ae11437631d.png) + + + +## 亮点五:界面非常简洁 +不少大模型对话应用提供了丰富的功能,入口非常多,页面左侧和下方均有操作入口,且分类上每个厂家都有各自标准,导致用户操作无法聚焦,体验也不一致。 + + + +qwen.ai 将所有垂直的能力,包括创建图像、代码、指定计划...放在搜索框下,以 tap 形式来展示,左侧只留下创建对话和历史对话的内容,用户操作只需留在右侧对话框即可。 + +![](https://intranetproxy.alipay.com/skylark/lark/0/2025/png/133108/1740470370617-7e20727b-f3fb-45be-8e2c-5a63bec68708.png) + + + +目前,qwen.ai 还未开放工具和视频能力。往往能力越丰富的产品,把体验做好就越难,期待在增加能力的同时,能一直保持如此简洁的体验和用心且实用的功能。通义很快会推出 Qwen Chat APP。 + + + +QwQ-Max-Preview,基于 Qwen2.5-Max 构建,是 Qwen 系列的最新成果,在数学、编程以及通用任务中展现了更强的能力,同时在与 Agent 相关的工作流中也有不错的表现。不久 QwQ-Max 和 Qwen2.5-Max 都会对外开源。[1] + + + +Higress 将第一时间支持对接其他模型到 QwQ-Max 和 Qwen2.5-Max 的平滑迁移,以及多模型间的代理。 + + + +[1] [https://qwenlm.github.io/zh/blog/qwq-max-preview/](https://qwenlm.github.io/zh/blog/qwq-max-preview/) + + +