一旦我开始使用AI,工作场所的人们就得到了幻觉
周句在该地区停下来,开始寻找原始资源。结果,在所有主要机构的官方网站(Canalys,Counterpoint,IDC)的官方网站上找不到这些数字的范围。该文章在报告的标题中没有找到。
AI产生的内容已完全积累。
他回忆说:“最伟大的事情是它不再是胡说八道,但它像现实一样说。”
之后,他再次尝试了同样的问题,发现AI所写的数据段每次都略有不同,并且报告的名称,价值和变化范围都没有相同。幻觉是无意的,但是正常状态。
他告诉自己,他将来必须“必须验证”,但是在许多情况下,面对高强度和散布文字的手稿节奏,他还承认:“有时候确实没有时间记住它。”
现在,他不再使用AI来生产带有数据的段落。结构e,语言和情节也可以得到AI的协助,但是只要诸如“报告”,“”和“资源”之类的关键字将出现,他就会直接跳过它,“这些句子看起来正确,但是大多数时候您找不到资源。”
他在工作站的一张邮寄笔记上张贴了八个字:“ AI正在快速写作,错误速度更快。”
“ AI说对回报的支持,客户亏损了” |电子商务客户服务
Wang Meng在电子商务平台上担任客户服务主管,该平台管理了一支由十几个人组成的小型团队。去年,该公司开始引入IS-Speacsing帮助系统是基于大型国内模型,该模型可以自动对销售后情况产生标准响应,例如物流延迟,退款规则说明和标志流程。
起初,效果非常好。
在高潮期间,该系统节省了大约打字时间的30%的客户服务。客户服务只需要输入t他质疑关键字快速调用模板响应,然后进行个人调整,这更好。
在春季节之前销售后发生争议。
客户申请了回报,但最初拒绝了,因为该产品属于“限量时间闪光,如果出售的不退款”。但是几分钟后,自定义哨兵在平台上屏幕截图,显示了客户服务响应清楚地说明:
“根据平台规则,您有权在签署后的7天内无缘无故地返回货物。”
该段落不是制造的,而是形成并自动进入AI。当时,客户的服务匆匆忙忙,直接发送了响应而没有更改。
问题在于,产品页面清楚地标记了“不支持退货”。
据此,客户向平台投诉“调皮的诺言”,并要求退款。最后,公司决定制作ONE-为客户付款并告知内部。 Wang Meng返回聊天记录,并确认此段落实际上是系统生成的模板的内容。
Wang Meng说:“它并不是说这些规则是错误的规则,而是不知道该产品不合适。”
在那段时间之后,公司立即调整了AI的性能许可,关闭了“自动答案”选项,并且仅维护“ Manu -Manu -Manu -Confircration and oghment offermation and oghment”机制。他还培训了一个培训周期,并要求代理团队在销售不同类别后重新找到条款。
他说:“ AI并不真正了解规则,它只是预测了我们要说的话。” “但是客户服务不能依靠预测来处理异常。
“我第一次使用AI制作课程,它是对我的概念” |培训讲师
Cai Qian是职业培训教育者。她开设了一门专门为TH的课程e fealents the工作场所。有时这是平台上的实时广播,有时是公司的内部培训。他谈论的是一个主题,例如“如何做品牌位置”和“短视频营销路径”。它具有紧密的速度和大量信息,还需要更高的内容更新。
去年,他在准备在线课程时首先联系了AI写作工具。
那堂课正在谈论“情感品牌的价值”,他认为AI将帮助他节省一些时间寻找例子。他要求AI提出开头的段落,希望它将为“青年消费的情感消费”提供数据范围,并介绍情感价值的基本概念。
AI的反应几乎是完美的 - 几秒钟后,他写了一段带有光滑逻辑和紧密色调的段落,引用了一组“超过60%的年轻人更喜欢具有情感表达的品牌的年轻人”,并指出它来自“最新研究”。
他阅读本文后毫不犹豫,他的语气“太ppt”,直接在第一页上发布了一段。
在直播的那天,他完成了开场部分,一名学生在评论领域留言:“老师,这项研究来自哪里?我们的公司想咨询它。”
他不小心停下来,试图记住他来自哪里,但他不记得了。上课后,他回顾了许多公共数据平台,但找不到类似的数据,也找不到数字范围。他最终理解,Ang“摘录”实际上是AI脱离空气的幻想。
他说:“写的是真的。” “我第一次使用它,我是。”
从那以后,他制定了一个规则:只要让AI提供结构性建议,并且将不再接受它所写的“事实”。他需要手动验证任何数字,百分比和时间节点。
“这里最大的问题是它可以模仿'专业语言'。越多,EA他说:“较为较少数是我们放弃判决。但是我必须对课堂上的每个句子负责,这不是必需的。”
“我正在做AI,但我没有做出决定” | AI产品经理
Gao Zhe的公司是一支在智能应用程序中制作的AI商人团队。与普通用户相比,他负责产品设计和处理不同的持久性大型模型。
他几乎每天都在使用AI。
所需的竞争产品分析,PRD草案,用户故事地图,市场研究报告的文件...他为自己设置了一组“卓越模板”:使用AI来起草结构,快速审查意见,并统一术语和词语,以节省前60%的大脑。剩下的40%会改变自己并发挥自己的光泽。
他说:“它不相信我,对我来说很熟悉。”
他对AI幻觉的警觉来自“内部示威事故”。
那天,他写了对该行业DE的解释Wen Xinyi行业的速度,希望在会议上展示“ AI的AI在市场审查中的能力”。该模型是正确的,包括年份,增长百分比,行业预测,甚至报价似乎是“研究内容”。
在演示结果前10分钟,他暂时决定审查它,并发现“猜测”中引用的人是错误的,并且对“ Slosing 2.7%”的描述找不到任何资源。整个段落非常平稳,以至于人们忽略了检查步骤。
高张说:“那时我意识到它没有正确写,但它像真正的书一样写了。” “它对对话水平产生了信心,'但是您永远不知道对话是胡说八道。”
在那段时间之后,他为他的团队建立了一种机制:
AI生成的内容必须由源标记;没有资源的任何部分应检查; Kinasinvolvolvolding客户交付或主要判断的内容不是Al降低为直接由AI构建,必须由两个以上的人确认。
他还在文档合作平台上设计了“ AI片段提醒”功能:系统会自动添加“ AI生成的内容”,该内容将突出显示AI生成的所有段落的标签,因此团队可以轻松了解哪些内容需要在合作时需要提供的内容。
他说:“ AI不是作家,它是破坏大脑的助手。” “您不会让它帮助您做出决定。您只能帮助它。”
他具有默认逻辑:AI仅负责发展可能性,人们负责进行理性筛查。
现在,他要求Koponan的年轻产品经理尽力使用AI - 不是因为他们认为这更准确,而是他们可以在工作中实现这一点:“最终您将对每个AI建议负责。”
“为什么AI这样做?因为它不了解真相或错误” |分析of幻觉原理-Guni
在语言模型的世界中,没有“真或错误”,而只有“可能性”。
AI的幻觉似乎是技术世界的诗意表达,对自然很有信心 - 它是指大型模型形成语法正确,在逻辑上平稳,但与事实不一致。例如,不存在报告,数据和删除结论。
这不是AI“错误”,而是AI完成任务的方式并不依赖于事实本身。
大多数人认为AI像搜索引擎并“找到”正确的答案。实际上,这就像一个“超自信的语言预测器” - 您可以开始使用它,“猜测”下一个单词可能是基于庞大的语言培训数据,拼写一个“看起来合理的”单词。
培训的目的是不要“谈论真相”,而是“像一个人一样说话”。
因此,它写的经文通常具有平稳的句子结构,专业术语,D平滑逻辑,甚至模仿“强大”引用方法。对于用户而言,这些特质使人们“降低警卫”。
它不会撒谎,只是像真实的那样做。
尤其是在中国情况下,幻觉的感觉更容易增强。
行业恩特内特·彭·德尤(Industrantet Peng Deyu)的评论员说,库尤(Kunyu)的业务业务:一方面,中国的表达尚不清楚且结构性弹性:概念可能未指定,可能没有标记,并且观点可能没有主题。在开发内容时,模型更容易根据“语言不朽”来安排句子,并意外地跳过了验证的事实。另一方面,中国的开源语料库中充满了许多未标记的二手信息,寺庙文章,商业软文章和资源的平台内容,在AI培训期间,“事实重量”之间没有什么不同 - 它将考虑“正确地说“正确”为“正确”,如Anth罗普语言。
这导致guni -guni不是个人事件,而是风险结构。
这通常发生在以下情况下:
•提及内容时:总计,白皮书,研究报告的姓名;
•当数据数据时:将无关的数字划分,甚至创建自己的比例;
•确定规则/法规时:使用过时的信息或false术语;
•形成结论时:共同的逻辑链在一起,但是现实的基础不存在;
这些内容正是工作场所中大多数人更多地依赖AI的内容。
Iflytek主席Liu Qingfeng曾经说过,生成人工智能存在幻想,尤其是自封型理解模型的逻辑序列,这使得很难认识到内容的真实性。
360小组的创始人周·洪吉(Zhou Hongyi与文学的创建相一致,就AI安全而言,幻觉可能会带来严重的问题。例如,在医疗,法律和财务等专业领域,一旦制定了大型模型 - 他们将产生严重的后果。
观看Kunyu业务也相信:“我们很可能将AI写入的内容视为资源和可靠的内容。实际上,这是一个比您更好的句子。”幻觉是AI生成写作的必然产物。当您教孩子说话时,但不要告诉他是真的或错误。他只会按照成年人说的方式对“世界上的正当米”说,但他不了解世界。
“这不是说谎,但我们需要知道捍卫” |平台与用户之间的响应机制
在AI的幻觉前,没有什么都没有被完全救出。但是,越来越多的AI用户学习“ Forge Defense”。
彭·德尤(Peng deyu)认为,处理频繁的幻觉并不是唯一的用户消除后果。越来越多的制造商也开始意识到,使AI“说话”不是“说正确”。没有制造商敢说“我们解决了幻觉”,但至少他们开始处理它 - 开始标记,干预和预防,试图用直接单词,线条审查和知识基础的层面来解决这个问题,以使其不容易流入公众。
“这是幻想的主要问题,它仍然没有得到解决。模型的基本逻辑仍然可以预测单词,而不是判断事实。AI仍然没有主动告诉您:“我真的弥补了这句话。幻觉不是“个体错误”,它是AI生成机制的一部分。要完全消除它,就像订购永远不会出错的人写作一样。”
结果,越来越多的公司开始在其阳光管理中包括“ AI使用规则”NT系统:
•内容平台要求员工在面对“ AI辅助内容生成”时进行几次校对;
•当品牌使用AI UP Toolsto写合同时,它会建立“次要审查”机制;
•教育机构提醒讲理:“仅使用AI来写句子模式,而不是结论”;
这些变化背后的共识是:
可以控制AI幻觉,但应明确责任。
AI不会为您做出决定,也不会为错误的报价道歉。它的工作是为了产生生产,判断仍然是人民。
AI如此之快地进入工作场所,以至于许多人没有时间建立界限。幻觉提醒我们,在理解其局限性后,使用任何新工具都应该非常重要。
“真正的情报是保持对幻觉的判断” |结尾
Theai幻觉不是技术缺陷,它是我们必须处理的时代的“常见疾病”。它不属于特定的人或特定平台。它隐藏在语调的无数逻辑和专业内容的背后,当我们懒得证明时,这片土地很安静,没有时间做出判断,急于提交。
您使用它来补充副本,我用它来更改合同,然后他用它来编写脚本 - AI就像空气,泄漏了每个内容的差距。它使它变得更快,我们使其如此之快,如此之快,我们忘记验证,忽略来源并放弃疑问。
在采访了Konyu业务观察的一些受访者中,他们都没有说:“ AI再也不会使用我。”
他们仍然使用它,并使用pa。但是他们很小心 - 有些人只是用它来编写结构,有些人只是要求它发出单词,有些人只是设置“标签标签”来提醒自己:这段段落可能不是真的。
这可能是我们真正进入AI时代的标志:不是代替任何人的人,而是所有使用的人必须学习“判断”本身。
技术不是对还是错,往往会像“人”。但是人们之所以与众不同,是因为他们无法说话,但是他们愿意停下来并分辨句子是否令人信服。
真正的智力不是让您知道AI,而是要知道什么时候不应该相信。
(根据要求,上述所有内容都是假名。)回到Sohu,外观更多