本文旨在探讨生成式人工智能的特征可能产生的心理偏差。在我们即将发布的文章中,我们还将分享有关创意专业人士如何更智能地使用生成式人工智能的见解。
想象一下这样一个场景:老板分配了一项任务,但员工没有寻求澄清,而是盲目地执行,这可能会导致重大错误。
更令人担忧的是,一些老板实际上可能更喜欢提出较少问题并直接提供结果而不需要进一步讨论的员工。
过去两年,生成式人工智能的快速发展不断促使我们思考这些工具如何协助我们的工作,它们最终是否会取代工作,以及如何找到合适的工作流程和应用。如果像 ChatGPT 这样利用大型语言模型的工具已经开始接管您的许多日常任务,您是否想知道您是否真正了解它们的特征与我们的工作方式有何不同?
通过 Transformer 模型的广泛学习,它可以非常精确地理解人类语言,并缩小上下文范围以找到最合理的响应。简而言之,他就像一个考试成绩优异但不关心答案背后含义的学生。他的 KPI 很简单,就是给出看起来不错的答案。
然而,这一特性使其有别于其他机器学习AI;它产生独特的输出……
大型语言模型(LLM)虽然非常强大,但有时会产生所谓的幻觉——听起来很自信但实际上是错误的答案。这很容易误导人们根据不正确的信息做出决定。因此,保持警惕并质疑这些模型很重要,即使他们的答案看起来很完美。
过去,人工智能经常在简单的数学问题或常识上犯错误。如今,我们很少看到这些错误。基本逻辑的改进使得人工智能更加可靠。除了这些进步之外,Lamini 等微调技术也帮助人工智能变得更好。
Lamini 内存调整简介:LLM 准确率达到 95%,幻觉减少 10 倍 |拉米尼 – 企业…
TLDR:Lamini Memory Tuning 是一种将事实嵌入 LLM 的新方法,可以提高事实准确性并减少……
www.lamini.ai
然而,有些人仍然将超出预期背景的答案或涉及没有明确答案的主题称为“幻觉”。但在了解了法学硕士的工作原理之后,很明显人工智能本身并没有那么产生幻觉;它只是一种幻觉。它只是根据概率排名生成答案。
为了成为更好的人工智能用户,我们可以通过考虑两种可能性来解决这些问题:
- 用于在特定上下文中训练模型的数据可能不足。
- 给出的提示可能与所需的答案不准确一致。
通过应用基本的提示工程技术,例如区分零样本提示和少样本提示,并利用思想链或思想树等方法,我们可以优化人工智能作为增强我们工作的工具,使其更清晰、更有效。
快速工程指南 |快速工程指南
即时工程的全面概述
www.promptingguide.ai
除了使用更严格的逻辑与人工智能交互之外,我们还可以讨论人们在使用法学硕士时可能产生的心理偏见。
随着我们越来越依赖 GenAI,我们需要注意以下三个关键事项:
在计算机科学中,ELIZA 效应是指我们倾向于将人类特征(如经验、理解力或同理心)归因于使用文本界面的简单计算机程序。 ELIZA 是一个象征性的人工智能聊天机器人,由 Joseph Weizenbaum 于 1966 年开发,旨在模仿心理治疗师。尽管 ELIZA 具有基本的文本处理能力和明显的局限性,但许多早期用户认为 ELIZA 具有真实的能力。智力和理解力。仅通过社会工程,它基本上就通过了图灵测试,这表明当人工智能的目标只是产生令我们满意的答案时,我们是多么容易被人工智能说服。
这种现象在今天更加重要,因为许多人相信人工智能可以提供完美的答案。
即使我不熟悉某个特定领域,我仍然可以通过提供最少的提示来获得令人印象深刻的答案。这种方式虽然高效,但也存在受框架约束的风险,导致锚定偏差。
向我展示从 uber eat 订购食物的客户旅程。
以表格形式显示,表格应包含痛点和初步解决方案
“零样本提示直接指示模型执行任务,无需任何额外的示例来引导它。” — 快速工程指南
零镜头提示的表现完美地说明了当前语言模型的先进程度。这就是为什么如此多的人愿意采用并能够有效地使用这些工具的原因之一。如此轻松高效地启动一个项目曾经是不可想象的,但现在这已成为现实。
这种方法完全符合计算机交互中的 Postel 定律(也称为鲁棒性原理),由 Jon Postel 制定:
“接受的内容要自由,发送的内容要保守。”
用户不需要提供精确的指令;几乎没有错误消息会阻止人工智能的生成。他们不需要担心拼写错误、措辞不清楚,甚至误解。用户不必完全确定他们需要的确切答案——人工智能会猜测最可能的含义并产生令人信服的响应。
与人工智能交互几次后,您可能会注意到,由于它将其上下文限制为您的问题并基于表面语言关系构建其响应,因此它仅提供最基本的话语级别。它可能看起来结构良好,但缺乏深度。
然而,这种方法也引入了锚定偏差的风险——一种认知偏差,其中初始信息(在本例中为人工智能的第一反应)不成比例地影响我们随后的思维。
如果您的目标是提供专业服务来解决问题,那么这种级别的响应对于您所获得的服务来说远远不够。虽然“零镜头提示”可以帮助我们在不熟悉的领域快速建立框架,但我们必须注意不要让我们的思维受到限制。如果你这样做,任何使用类似模糊输入的人都会得到同样可预测的、肤浅的答案,缺乏真正的洞察力。
为了最大限度地减少幻觉,人工智能不只是给出看似合理的答案,而是可以收集更多的用户信息,专注于让用户在交互过程中感觉更好地被理解。
然而,这种方法需要权衡:这意味着逐渐赋予人工智能更多的访问和控制权,允许它预订会议、预订餐厅、处理信用卡交易,甚至驾驶汽车。随着我们对人工智能的信任加深,我们在监督这些任务时可能会变得更加放松。然而,我们将这样的责任委托给人工智能——本质上是一个“猜测”的系统——的想法有点令人不安。
同样,虽然人工智能可以提供看似合乎逻辑的答案,但必须仔细考虑道德和背景影响。自 20 世纪 50 年代以来,人们一直对机器做出重要决策的想法抱有担忧,这种担忧至今仍然存在。我也很想知道苹果将如何在将私人数据移交给人工智能方面建立信任。
当谈到人工智能的创造性工作时,通常需要平衡概率和创造力之间的竞争与协作。生成式人工智能通过广泛的无监督学习,找到数据中的联系,并利用其卓越的“猜测”单词的能力,将剩下的交给“概率之神”来为人类提供答案——这是一种非常高效的应用。
我们可以考虑的是如何平衡工作流程中的脑力劳动,确保创造性工作真正有价值的部分留在人类手中,同时充分利用生成式人工智能的独特能力来实现我们以前从未想象过的事情。
未来我将分享更多关于如何在创意工作中与人工智能有效互动的技巧。请继续关注 Design Mojito 以获取更多见解!
设计莫吉托
我们设想一个创造力无极限的未来,每个设计师都有权带来他们最新鲜、最……
媒体网站
版权声明
本文为本站原创内容,转载需注明文章来源(https://www.eiefun.com),另:文中部分素材可能会引用自其他平台,如有侵权或其它,请联系 admin@eiefun.com,我们会第一时间配合删除