今年的《政府工作报告》对推进“人工智能+”行动提出了新的要求。《政府工作报告》着重强调了人工智能的实际应用,包括产业赋能、终端应用等方面。在强调技术应用的同时,多次出现“安全”一词,强调了产业的安全健康发展。
在金融领域,庞大的用户群体和海量数据积累还为人工智能技术的落地提供了优质场景。随着“人工智能+”行动的持续推进,AI大模型已经成为不少金融机构的标配。与此同时,问题也随之而来,“一本正经说胡话”的AI幻觉已经让不少金融从业者感到头疼,更令人担忧的是,金融业的高精确性要求使得AI幻觉问题被放大,从模型误判到资金损失可能仅是一步之遥。
AI幻觉是指AI大模型生成的内容与现实世界事实或用户输入不一致的现象。简而言之,就是AI在“胡说八道”。
记者了解到,眼下金融行业确实有不少投诉案例与AI幻觉有关。以市面上常见的AI智能客服为例,AI智能客服的“已读乱回”经常令用户陷入沟通困局。有客户连续发送“转人工”请求,对面仍回复“为了节约您的时间,还请再简单描述问题”;当用户咨询复杂的理财产品条款时,AI回答往往仍以“请咨询客户经理”仓促收场。不少用户不禁疑惑:这些外表智能实则机械的AI客服,与传统电话客服“按0转人工”的机械设置相比,究竟在服务体验上有多大程度的实质性提升?
中国邮政储蓄银行研究员娄飞鹏表示,AI幻觉会生成看似不合理、与事实不符的结果,如果出现在营销领域,可能导致银行无法向客户做好解释,从而增加银行维护客户群体的难度;如果出现在风险管理领域,可能使银行因为无法理解其中的逻辑原因,无法有效采取针对性的风险管理措施。