即刻App年轻人的同好社区
下载
App内打开
Xinran.Z
8月前
Heuristics for AI Product Design 之

【AI 产品的透明度和可信赖性】-1

最近不少垂直行业的朋友来找我聊 agent ,我都会先跟他们讲“透明度”这件事。对于一个崭新的产品类型,AI co-pilot 或者是 agent,对工具的信任都是一切的基本。大部分垂直领域的朋友对这些抽象的概念都是“雾里看花”,我今天整理了一下不同人交流的内容,在这里留档记录。

1:对于个人 ,为什么AI 产品“透明度”很重要?

想象一下,你正在使用一个新的 AI App来管理你的财务。如果这个应用告诉你它会帮你做出投资决策,但你完全不知道它是怎么分析数据、做出判断的,你可能会觉得不放心。当AI越来越多地参与到我们的生活,比如很多数据敏感的领域,诸如健康诊断、贷款审批等等,我们需要知道这些系统是如何运作的,它们用了哪些信息,又是怎么得出结论的。只有这样,我们才能信任它们。所以,“透明度”就是指让用户了解 AI的工作方式,这是人与 AI 迈向未来发展的基础。

比如,渐进式披露(Progressive Disclosure):AI先展示核心功能和产出结果,然后允许用户逐步深入查看更多关于模型如何运作、使用了哪些数据等详细信息,减少短时间大量信息造成用户产生的认知负荷。使用 Perplexity进行检索,会先给出整理好的报告结果,用户有需求的话,可以点开查看每个回答细节所引用的具体网页。

2:AI 产品的透明度对企业有什么好处?

除了让用户更信任企业的AI产品之外,对企业来说,公开透明地开发和使用AI也是一个品牌建设和营销的好办法。 正如我们刚才所说,在市场上如果用户有很多选择,他们更倾向于选择那些他们能够理解和信任的AI产品。这种信任可以带来更多的用户、更高的使用率,最终让用户对品牌更忠诚。企业通过公开他们的AI技术(一定程度上),可以和用户建立一种伙伴关系,共同推动AI产品的创新。比如在用户界面中展示企业对透明度的承诺,例如相关的认证、隐私政策的链接、关于AI开发原则的说明等;或者将透明度作为品牌价值的一部分进行宣传,并在用户体验的各个环节体现出来。

3:基石:用户需要对AI 的能力有一个清醒的认识。

需要避免让用户把AI想象成无所不能的“超级大脑”,认为它可以完全取代人类的各种行为,甚至是判断和决策。需要让他们知道,AI输出的结果,尤其是目前阶段,需要人类的监督和验证,尤其是对一些特殊情况,还需要人类来接管和修正。

因此,要建立信任,我们需要坦诚地告知用户AI目前的局限性。用户需要事先了解AI的能力范围,这样才能有合理的期望。如果期望过高,一旦AI达不到,就会导致失望,最终失去信任。比如,一个用来做文章 summary 的 AI 工具,是有可能漏掉万字级的长文章里面某些内容的。如果我们一开始就说明这一点,就能避免用户在它不擅长的任务(比如过长的上下文)上依赖它。如何让用户了解 AI 的局限性,并建立对 AI 的信任?三种典型做法:

1)预先沟通这些局限性远比让用户意外遇到它们更有效,否则更容易导致失望和信任的丧失 。因此清晰、诚实地评估它的能力和局限性,并在合适的时间用合适的方式提醒用户。例如,AI bot会预先提示:“我可能无法回答超出知识库范围的问题”; summary工具可能会说:“对于过于专业或细致的内容,或者长上下文,摘要效果可能不佳”。

2)在AI给出结果时,同时显示其置信度(confidence score)或不确定性水平,对于非专业用户来说,这是一个更容易理解的指标 。例如,AI智能文档工具经常使用置信度分数来表明其准确性的概率,提醒用户对某些元素或者文档进行关注或及时审查。

3)设计友好的错误提示和恢复机制,比如当AI无法处理某个任务或出错时,能够清晰地告知用户,并引导用户检查或者采取其他行动。

第二篇:m.okjike.com

第三篇:m.okjike.com

后续话题一览:m.okjike.com
59

来自圈子

圈子图片

产品经理的日常

202867人已经加入