diff --git a/src/content/blog/Higress-gvr7dx_awbbpb_pskdldqp5qc295hz.md b/src/content/blog/Higress-gvr7dx_awbbpb_pskdldqp5qc295hz.md
new file mode 100644
index 0000000000..35457ab7ae
--- /dev/null
+++ b/src/content/blog/Higress-gvr7dx_awbbpb_pskdldqp5qc295hz.md
@@ -0,0 +1,94 @@
+---
+title: "上线第一天,总结 Qwen.ai 的5个体验亮点,让人停不下来"
+description: "上线第一天,总结 Qwen.ai 的5个体验亮点,让人停不下来"
+date: "2025-02-26"
+category: "article"
+keywords: ["Higress"]
+authors: "CH3CHO"
+---
+
+作者:望宸
+
+DeepSeek 依旧很火,元宝广告也还很多,但是今天刚上线的 qwen.ai 的体验是真的不错,为自家的大模型站台一波。
+
+
+
+通义今天发布了 QwQ-Max-Preview,并上线 qwen.ai 提供模型体验。笔者快速体验了一下,qwen.ai 让人眼前一亮,以下是总结的5个亮点。
+
+
+
+## 亮点一:历史对话,提供分组功能
+大模型在不同人群中的温差还比较大,但科技领域的从业者几乎已经每天都会使用大模型,工作、生活都会通过 AI 寻找答案或者验证想法。但是,对话越多,查阅历史对话的负担就越重,虽然相同的问题可以再问一遍,但是给出的答案是完全不同的,并且有可能之前的那一次提问才是我现在要的那个答案。
+
+
+
+qwen.ai 提供了历史对话的分组功能,可以对历史对话进行分组,查阅历史对话更加高效。
+
+
+
+
+
+## 亮点二:提供临时对话功能,友好信息洁癖人群
+我们可以打开自己的主用大模型对话应用,左侧是不是躺着一堆历史对话信息,相信不少对话都是临时需求,是不需要存储在历史对话里的。虽然大模型们都提供了历史对话的删除功能,但将临时对话前置在发起对话前,相信这一功能的使用率会远高于历史对话的删除功能。
+
+
+
+qwen.ai 提供临时对话功能,对于有信息洁癖的人群简直是福音,且在历史对话分组的基础上,临时对话功能这一能力效果会更好。
+
+
+
+体验排序:临时对话+历史对话分组 + 历史对话删除 > 历史对话分组 + 历史对话删除 > 历史对话删除
+
+
+
+
+
+## 亮点三:支持人为删除搜索来源,重新生成内容
+联网搜索是一把双刃剑,好处是能基于实时的互联网内容,再进去推理;坏处是大模型对质量较低的互联网内容的甄别能力一般,很多生成内容质量不如人意,是因为被低质量的搜索来源干扰了。所有,对于实时信息需求不高的搜索请求,但追求推理能力的情况,我通常会关闭联网搜索功能。
+
+
+
+qwen.ai 支持人为删除搜索来源,重新生成内容,在第一次的内容生成情况下,可以对对话右边的搜索来源进行筛选,对内容质量较低或者明显存在错误信息的来源进行删除,从而提升生成质量。
+
+
+
+
+
+## 亮点四:提供聊天概览,全链路视角审核和挑选生成内容
+上下文是大模型对话的重要特性。我们通常会基于一个话题和大模型进行多轮对话,以获取更多、更全、更高质量的信息,但是轮次一旦多于5次,希望全链路追溯上下文以获得更清晰的对话过程,体验会非常难受,需要不断的对鼠标进行上下滚动,再加上大模型的生成内容很多,几乎无法实现我们的意图。
+
+
+
+qwen.ai 提供聊天概览,让我们得以全链路观测对话过程,点击右侧的模块,左侧内容就会自动跳转到相应的生成内容。
+
+
+
+
+
+## 亮点五:界面非常简洁
+不少大模型对话应用提供了丰富的功能,入口非常多,页面左侧和下方均有操作入口,且分类上每个厂家都有各自标准,导致用户操作无法聚焦,体验也不一致。
+
+
+
+qwen.ai 将所有垂直的能力,包括创建图像、代码、指定计划...放在搜索框下,以 tap 形式来展示,左侧只留下创建对话和历史对话的内容,用户操作只需留在右侧对话框即可。
+
+
+
+
+
+目前,qwen.ai 还未开放工具和视频能力。往往能力越丰富的产品,把体验做好就越难,期待在增加能力的同时,能一直保持如此简洁的体验和用心且实用的功能。通义很快会推出 Qwen Chat APP。
+
+
+
+QwQ-Max-Preview,基于 Qwen2.5-Max 构建,是 Qwen 系列的最新成果,在数学、编程以及通用任务中展现了更强的能力,同时在与 Agent 相关的工作流中也有不错的表现。不久 QwQ-Max 和 Qwen2.5-Max 都会对外开源。[1]
+
+
+
+Higress 将第一时间支持对接其他模型到 QwQ-Max 和 Qwen2.5-Max 的平滑迁移,以及多模型间的代理。
+
+
+
+[1] [https://qwenlm.github.io/zh/blog/qwq-max-preview/](https://qwenlm.github.io/zh/blog/qwq-max-preview/)
+
+
+