上手即用!2025年AI产品信任设计指南

编者按:传统的 APP 要建立信任机制并不复杂,现在有很多值得参考的模式、范例。但是 AI 类产品所面临的情况是截然不同的,那么如何为 AI 类产品进行信任设计呢?今天来自 Mary Borysova 的这篇文章就基于这个视角,结合一系列的头部 AI APP 来和你一起探讨这个问题。以下是正文:

上手即用!2025年AI产品信任设计指南

AI APP 信任构建机制

信任是任何互动中最脆弱也最根本的根基。自史前时代起,人类就必须判断自己身处的地方是否安全,途中遇到的陌生人是否值得信任,以及别人给的食物是否可以食用。而在心理学中,信任通常是指在不确定的情况下,仍然愿意依赖某人或某事。在科技领域,信任意味着相信系统是可靠的、可预测的、与你的目标一致的,并且对其局限性保持透明。

当你使用计算器时,你期望2+2等于4。每次都一样。这就是确定性的软件。这是我们几十年来对传统工具建立起来的信任——按下按钮,就能得到可预测的结果。

但是,AI 并非如此运作。

AI 产品处理的是概率,而不是确定性。

上手即用!2025年AI产品信任设计指南

建立信任的风险

由于 AI 系统具有模糊性,并且通常像黑箱一样运行,信任成为最大的挑战之一。

我们追求的是更加细致入微、经过深思熟虑的信任。

校准信任意味着用户需要知道何时应该依赖 AI ,何时应该运用自己的判断。

如果我们要做一个 AI 类的 APP 产品,我们如何建立信任?用户应该对系统信任到什么程度?过度信任什么时候又会对双方都造成损害?今天的这篇文章,就让我们深入探讨一下这个问题。

一. 允许用户在使用前测试 AI

很多时候,人们在开始使用某个系统之前,他们就已经开始做判断了。就像当我们遇到一个陌生人时,我们会根据他们的穿着、举止和言谈举止来评估他们。

那么在为 AI 设计 APP 的时候,我们可以通过示例提示和以往类似项目来展示产品的功能。这样,用户甚至在开始使用软件之前就能建立起信任。

上手即用!2025年AI产品信任设计指南

Manus

由于 Manus 中的模拟运行只需几秒钟,用户就可以对系统进行试用,评估流程,并预览结果,而无需投入太多精力。

上手即用!2025年AI产品信任设计指南

任务预览

当用户开始设置任务参考详细说明提示时,monday.com上的小型演示预览可以让他们在完全运行任务并支付积分之前,对系统建立信心。

上手即用!2025年AI产品信任设计指南

monday.com 预览

这种逐步展示的方式可以让用户逐步验证 AI 的输出结果,并开始建立信任,尤其是在任务是多步骤的,需要大量的时间和处理才能得出结果的情况下。

二. 让 AI 响应与用户目标相匹配

响应结果和预期不匹配,会削弱用户的信任。 回答过于浅显,可能会让用户觉得 AI 态度冷漠或信息不足。回答过于深入则可能让用户感到不知所措、困惑,甚至觉得系统根本不理解他们。

将内容呈现的深度与用户的目标和准备程度相匹配,能够体现能力和可靠性,而这些都是建立信任的核心。

设定答案的深度可以让AI根据用户的目标和认知负荷进行调整。并非每次交互都需要相同程度的细节。有些用户只需要快速获得答案,来确认某个事实或做出快速决定。对他们来说,简洁明了的回答就足够了,既能提供清晰的信息,又无需额外付出努力。

上手即用!2025年AI产品信任设计指南

ChatGPT 深度研究模式

有些人可能正在探索复杂的主题、做出战略选择或学习新知识。他们需要背景信息、推理过程和细微差别。对于这些用户来说,更深入的解答应该提供洞见、示例和不同的视角,帮助他们全面理解情况。

此外,用户还可以避免因答案过于肤浅而觉得无用,或过于冗长而难以理解而感到沮丧。

上手即用!2025年AI产品信任设计指南

必应深度思考模式

深度思考模式有助于系统提供有用、可控且相关的信息和指导。

当我们了解用户重视什么、需要什么以及面临哪些限制时,我们就可以调整体验和最终输出,使其符合这些需求。

这种积极主动的方法可以减少误解,最大限度地减少迭代次数,并确保最终解决方案真正满足用户的期望。

三. 展示运作过程:高透明度能提升用户信任度

当用户能够看到决策建议背后的原因时,信任就会增强。有着较高透明度的系统,例如展示哪些数据影响了建议或突出显示推理步骤,可以让用户了解 AI 的思考过程。

即使 AI 偶尔出错,用户也会感到更安心,因为他们理解其建议背后的逻辑。

上手即用!2025年AI产品信任设计指南

研究过程

当Elicit和Perplexity处理复杂任务时,它们会展示推理步骤。用户可以看到它们如何分解请求、考虑不同的信息来源,并最终得出答案。

用户可以看到工作过程,因此会觉得答案是靠努力运行得来的,而不是凭空捏造的。

上手即用!2025年AI产品信任设计指南

除此之外,当你能看到进展时,比起疑惑是否有什么进展,保持耐心要容易得多。

Gemini Deep Research通过循序渐进的系统,带领我们踏上研究之旅。

上手即用!2025年AI产品信任设计指南

Gemini 的深度研究过程

用户可以实时看到研究报告的生成过程,整个过程更像是协作而非单向指导。用户可以编辑计划并调整流程。

更重要的是,它让人感觉这款产品像是在和用户进行人际对话。「我的」、「我」、「我的」这些称呼让AI系统感觉像是一个人类伙伴,而不是一台毫无意义、只会根据查询进行搜索的机器。

上手即用!2025年AI产品信任设计指南

Gemini 的深度研究过程

在聊天记录中,用户可以看到最简化的进度版本,包括对信息来源的简要说明,以避免给不想深入了解细节的用户造成认知负担:

上手即用!2025年AI产品信任设计指南

Gemini 研究过程

对于复杂的任务,建立信任不仅仅意味着对所采取的步骤保持透明,还意味着对过程拥有控制权。

Replit 就是采用这一原则的一个例子。它会实时显示其运行过程,并允许用户探索和干预。用户可以像查看更新日志一样跟踪整个过程:设置文件、编写函数或安装依赖项。用户可以随时打开项目的一部分,阅读并编辑。

上手即用!2025年AI产品信任设计指南

上下文相关的操作按钮减轻了用户思考下一步操作的认知负担。这使得交互方式从基于记忆转变为基于识别,从而使难以理解开放式提示的用户更加容易接纳。

四. 用户可以核实信息来源

当 Perplexity 提及某个统计数据或说法时,点击引用链接,用户即可直接跳转到源文档的相关部分。

这种方法能够建立信任,因为用户可以立即验证信息。

上手即用!2025年AI产品信任设计指南

Microsoft Copilot通过引用生成此文本和简短摘要来增加可信度。

上手即用!2025年AI产品信任设计指南

微软 AI Copilot 示例

提高对输出结果信任度的另一种方法,是关注信息的结构和呈现方式。

仅靠文字可能不足以传达背景信息、表明关系或确定程度。在更复杂的情况下,如果结合图表、交互式可视化和源映射等视觉结构,效果会更好。

以视觉方式呈现的推理过程会显得更加真诚,没有任何隐瞒。清晰的视觉结构能将复杂转化为清晰,而清晰有助于建立信任。

这种高透明度的呈现能够建立信任,因为推理过程是可见的、结构化的、可验证的。

上手即用!2025年AI产品信任设计指南

上手即用!2025年AI产品信任设计指南

用户可以直观地浏览 Consensus APP 的搜索结果,快速评估输出结果中提到的答案和论点的强度。

当系统显示「证据强度:中等」或提供多种解释,而不是强迫用户必须依赖单一答案时,用户的信心也会增强。

上手即用!2025年AI产品信任设计指南

五. 启用协作式编辑

旅行规划 APP Layla 是一个完全交互式的工具,基于 AI 的系统,允许用户预览地点、直观地浏览行程,并更改旅行的各个组成部分,例如更改酒店。

上手即用!2025年AI产品信任设计指南

Layla AI 旅行规划

行程管理功能集成在主界面和聊天机器人中,能够像真人旅行规划师一样为用户提供帮助。如果用户想要对整个行程进行全局修改,例如降低费用或取消航班,都可以使用聊天机器人完成操作。

用户可以选择与上下文相关的选项,例如,在阿马尔菲之旅中,他们可以放弃乘船游览,同时选择更便宜的酒店来降低旅行成本。

上手即用!2025年AI产品信任设计指南

Layla AI 旅行规划 APP

用户可以通过地图元素修改方案,并实时查看更新后的方案。这种全程透明的流程和结果让用户感到值得信赖。

在Reve AI中,当用户进行更改时,系统会显示上下文感知建议,并根据刚刚创建的内容直接推荐下一步操作。

上手即用!2025年AI产品信任设计指南

Reve AI图像编辑

信任的建立源于用户可以清晰地看到系统提出建议的方式和原因,而不是接收到随机的结果。这些建议的逻辑与用户当前想要达成的目标相一致。

速度加快是因为系统能够预测需求并保持势头,从而减少摩擦,缩短从想法到执行的路径。

高透明度的设计再加上指导,是提高效率和建立信任的基础。

结语

人机交互的未来将取决于适度的信任——即信心和怀疑之间的平衡。

当用户能够看到决策是如何做出的,以可视化的方式探索结果,干预决策过程,并立即验证信息来源时,他们就从被动的接受者转变为知情的合作者。

收藏
点赞 35

复制本文链接 文章为作者独立观点不代表优设网立场,未经允许不得转载。