近年来,ChatGPT、DeepSeek等语言大模型的横空出世,使得人们深切感受到了科技的飞速发展。这些人工智能凭借其强大的自然语言、数据处理能力,展现出了卓越的性能,开始广泛应用于银行、保险、证券、财富管理、客服、产品营销等领域,广泛开展文本生成、对话能力、代码编写、数学计算和推理等业务,并以其高效率、低成本对各行各业产生了巨大影响。那么,对普惠金融来说,人工智能又将产生什么影响和作用?
今天,我们邀请中国小额信贷联盟前理事长杜晓山、北京大学普惠金融与法律监管研究基地副主任顾雷一起探讨人工智能对我国普惠金融的影响,解读人工智能给普惠金融领域带来的商机以及如何预防人工智能可能带来的风险,希望能够对我国普惠金融高质量发展有所帮助。
《金融时报》记者:在您看来,人工智能的主要功能体现在何处?相较于以往国外的人工智能产品,我国自主研制的人工智能又有什么智能和操控优势?
杜晓山:近期,国产AI大模型横空出世,这些爆火的大语言模型底层架构主要基于深度学习算法,深度学习算法是人工智能技术中一个重要的分支。此外,百度,阿里云,科大讯飞等开发的人工智能也在迭代发展,在全球范围内引发了广泛关注,让中国科技再次走到世界舞台聚光灯下。
与传统认知智能系统不同的是,人工智能的核心优势在于应用需求驱动技术创新,就是在接触新知识过程中不断提高自身性能,自主、快速、不间断地以“类人”方式交流达到完成多个场景、多个回合的人机对话,其答复内容也接近达到人类专家级水平,实现对高成本、封闭式技术的超越。比如,最新火爆推出的国产DeepSeek大语言模型就可以通过自身数据优势、信息优势、分析技术优势,从海量数据中归纳出有价值的关键信息,将行业趋势、财务数据、产品利率走势、舆情走向转化为可读的自然语言文本、财务分析数据及风险数据,生成行业研究报告、财务分析报告、市场风险评估报告,推荐普惠型金融产品、金融产品视频介绍、客服咨询、智能财富理财,帮助市场分析师、金融分析师、个人财务顾问解决客户难题,帮助客户快速识别商机或风险,完成从“资本堆砌”向“效率创新”转型。
相较于以往国外人工智能产品,国产的人工智能理解力更强、逻辑思维更好、知识储备更广,大幅提升工作效率,可以支持多达20种语言的实时翻译和语音识别,更准确地理解客户意图和需求,快速给出精准答案。同时,国产人工智能还支持图像生成和AI绘画功能,允许用户通过简单的文本描述生成高质量图像,丰富应用场景,提高用户创意表达自由度,优化客户体验,实现降本增效,为银行业金融机构高质量发展开辟了一条新通道。
可以说,人工智能不仅仅是单一场景的人机对话,而是一个同时具备多种能力的“对话式AI系统”,可以突破分布式存储、共识机制、智能合约、跨链技术等关键核心技术,强化人工智能、虚拟现实等技术在普惠金融领域应用,为银行业金融机构、小贷公司、助贷机构以及互金平台构建数字金融创新平台提供帮助。在“十五五”规划中,我国已经将人工智能上升到国家层面的重要战略布局,逐步出台相关政策文件,大力扶持相关科技企业的发展和人工智能相关技术的研发和改进,旨在推动我国在这一前沿科技领域的领先地位,为我国人工智能技术的持续进步和广泛应用奠定坚实的基础。
《金融时报》记者:现在我国不少金融机构从业人员担心,人工智能在不远的将来会对银行人工岗位造成冲击,尤其对程序员、软件工程师、数据分析师进行替代,可能导致员工失业或离开原有工作岗位,您认同这样的看法吗?
顾雷:目前我国已经存在人工智能替代银行业金融机构简单工作的情况,比如江苏银行通过部署微调DeepSeek-VL2多模态模型、轻量DeepSeek-R1推理模型,智能合同质检和自动化估值对账效率大幅提升,其中信贷材料综合识别准确率超97%,信贷审核全流程效率提升20%。全国其他省市也有不少金融机构开始使用人工智能开展柜台工作。
北京大学普惠金融与法律监管研究基地预测:未来5至10年,人工智能大概率会广泛运用于银行业金融机构、互金平台、小贷公司、金融科技公司的编制业务规划、智能合同管理、智能风控、智能财务管理、资产托管与估值对账、客服助手等多个场景,对金融行业初级分析师、个人理财顾问、软件工程师、网络工程师、数据分析师和计算机程序员等技术岗位造成一定的冲击,部分业务人员被人工智能取代风险有所增加。
但是,我们必须看到,虽然人工智能在数据处理和模式识别上有突出表现,但由于金融是一项具有创新性、灵活性以及情感性特征的行业,金融监管政策制定、金融业务管理、客户沟通交流、深度研究分析、面对面营销客服等工作是无法被人工智能所取代的,尤其在处理需要复杂情感理解、文化差异识别或伦理价值判断时,基于数据处理的大模型缺乏对市场环境、社会文化以及客户情绪的深入理解,就显得“力不从心”。以国产DeepSeek为例,并不能替代银行、小贷公司、互金平台、担保融资机构、咨询公司业务中对城镇居民人群、新市民、返乡创业人员、大学生创业者进行访谈、沟通和情感交流,也不可能主持小额信贷纠纷调解工作,所以出具的调解书是否具备法律效力更是无从谈起。
总而言之,人工智能终极形态并非“机器取代人类”,而是人机能力的互补共生。在客户信息分析环节中,AI可秒级扫描全网信息,筛选优质客户,识别潜在风险,但在客户个性化服务环节中,银行员工对客户需求的理解、交流和情感互动更是不可或缺的,人工智能就显得难以应对。为此,未来普惠金融领域最佳服务模式应该是人工智能与人工服务取长补短,相互配合,共同实现“数据分析”与“人性服务”的完美融合。
《金融时报》记者:对于我国普惠金融而言,人工智能有着非常广阔的应用空间,您是否可以描述一下,未来人工智能有可能带给国内普惠金融服务模式和工作方式哪些主要改变?
杜晓山:第一方面影响是服务模式变化。长期以来,传统银行服务客户主要依靠大量人力。由于人力资源有限和服务理念的局限,实际上只能做到以能产生较高利润的重点客户为中心,将非重点客户拒之门外,而且所有服务都依赖人工分析,难以应对海量数据,标准化方案更无法匹配不同人群多元需求,使得普惠金融覆盖面有限。但是,在大语言模型(Large Language Model,LLM)支持下,人工智能可以对市场数据、金融数据、个人财务数据、客户日常消费数据进行深度挖掘和加工处理,连接个人投资者,形成数据共享的共赢生态,实现资讯内容、产品介绍、客服咨询、服务遴选和贷后管理等自动化生成,对客户意图识别、信息处理和决策辅助支持,以个性化服务来覆盖所有客户,将服务模式从“人脑经验”升级为“数据智能”,形成了人机互动、协同工作的多元化金融服务。
第二方面影响是工作方式变化。虽然银行业金融机构员工不可或缺,但在大语言模型帮助下,很多重复性、程序性的工作都可以由人工智能替代完成,降低经营成本,提高工作效率,形成银行员工和智能主体协同共进局面,比如国产DeepSeek人工智能可以代写小额信贷产品说明书、客户贷款申请书、编写小额信贷放款业务流程等基础性业务文件,撰写反暴力催收申请书,还可以充当城镇居民、农户、个体工商户以及小微企业主理财顾问、个人财务顾问,提供个性化理财产品、智能风险管理,帮助社会低收入人群在短时间内获得更高的财富管理能力。
第三方面影响是降低金融机构运营和客户融资成本。人工智能可以轻松推进普惠金融许多业务环节自动化,比如数字化风控、数字化运营和数字化营销,提升审核流程效率,大幅提高交互效率与任务成功率,降低人力成本,银行运营成本也随之降低。
我再从人工智能在解决我国城乡弱势群体的“数字鸿沟”或“智能鸿沟”问题上的影响做些概要描述。我认为,它有积极作用,也有短板挑战。在缩小鸿沟方面,显著降低了AI模型的训练和部署成本。例如,为乡村提供政务、农业和医疗就诊智能化服务。通过培训,数字素质较低人群或相关人员可运用语言提问和拍照图像识别,将农作物病虫害诊断水平大幅提升,同时降低农药使用量,降低了技术使用门槛,提升了生产效率。
AI面临的挑战一是在农村,尤其是我国中西部欠发达地区网络覆盖率不够高、电力不够稳定、智能手机普及和应用普及较差;二是城乡老年和其他弱势群体对新技术接受度较慢、运用程度较低等。改进的途径应该是进一步探索、学习和完善城乡协同的普惠AI模式,确保技术红利惠及所有群体。
总而言之,人工智能对缩小我国城乡数字鸿沟和智能鸿沟起到缓解作用,但当前其在农村弱势群体中的应用还处在试验示范阶段,需要进一步突破基础设施限制,协调技术、政策、生态等方面因素,才能实现数字和智能包容的宗旨与目标。
《金融时报》记者:人工智能给国内普惠金融服务模式和工作方式带来变化,您认为人工智能具体可以从哪些业务着力点推动我国普惠金融发展?
顾雷:首先,人工智能有利于拓展普惠金融服务覆盖面。传统信贷服务难以满足信用记录缺失者的需求,人工智能驱动的大数据信用评估系统,通过分析非传统数据源,诸如社交媒体、手机使用数据、购物消费记录、交通费用记录等,为没有传统信用记录人群提供信用评分和信用等级,使得更多人能够获得贷款资格,小额信贷覆盖面得以扩大,客观上推动了普惠金融发展。
其次,人工智能有益于赋能社区金融智慧场景。简单说,通过图像、音频、视频等AIGC技术精准理解社区居民意图,深入挖掘新市民、老年人、残障人士、下岗工人、家庭主妇在产品设计、购买方式、偿还利率和偿还周期等方面的金融需求,与社区居民直接开展对话模式,通过交流智能化、服务网络化、支付数字化,对居民小额储蓄、银行理财、日常生活缴费、投资理财、小额融资、支付结算、缴纳税费、网上购物等提出差异化解决方案,让更多的社区居民体会到人工智能快乐,享受到更加智能化的普惠金融服务新服务。
再次,人工智能有助于推动财富管理领域变革。根据农户、城镇居民、个体工商户等资产状况、投资偏好、风险承受能力等因素,可以为客户提供个性化投资建议和资产配置方案,帮助社会低收入群体实现个人和家庭财富保值增值,缩小社会贫富差距。
此外,人工智能有助于提高特殊人群使用频率。目前,银行业金融机构大都通过手机银行给客户提供服务,超过80%业务量发生在手机银行。但是,普通手机银行图形交互界面比较刻板,功能复杂繁多,操作更是烦琐庞杂,老年客户一直存在使用体验不佳问题,人工智能却能轻松实现从完全图形化的交互模式转向“图形+Chat”的交互模式,推动交互模式从单一图形化向多元化融合升级,叠加语音、手势、触觉等多模态交互要素,改善人机交互的使用体验,使得人机交互模式朝着便利化、适老化、人性化方向发展,提供24小时不间断的智能服务,改变老年群体、农民、残障人士、轻微智障人员、文化程度不高人群使用不足、效率不高问题,提高普惠金融服务范围和工作质效。
最后,人工智能有助于促进云端消费金融。按照各个不同消费群体要求,人工智能紧扣供应链管理、精准营销获客、沉浸式销售体验等环节,把云逛街、智能试装、VR逛店、虚拟裁缝助理等云端服务与普惠金融结合起来,开发出更方便化、更精准化、更差异化消费金融产品,实现以消费者为中心的消费、支付、物流全面升级的消费金融服务。
《金融时报》记者:虽然人工智能可以降低使用门槛,扩大普惠金融覆盖面,提高小额信贷在中低收入群体的普及率,但也加剧了风险外溢。在这其中,哪些风险需要特别引起注意?
顾雷:现阶段,人工智能的设计和运用并不完美,比如从事人工智能技术研发的企业不了解普惠金融市场,尤其对社会低收入群体、残疾人、新市民、个体工商户以及农民的金融需求并不了解,导致开发出来的人工智能产品无法让上述特殊群体满意。而基层一线的银行业金融机构、互金平台、小贷公司、金融科技企业又没有开发大模型的技术能力,无法将人工智能完全对接到小额信贷业务,面临产品可信度、数据隐私保护及个人数据安全等诸多问题。具体看,对我国普惠金融可能产生的金融风险包括但不限于:
在金融数据保护方面,可能会给客户带来不必要的数据泄露风险。作为大语言模型,不可避免地依赖大量未经筛选的外部原始数据,而这些外部原始数据在通过模型输出给社会用户使用时就有可能造成信息泄露。例如,在与第三方进行数据共享时,如果第三方出于商业利益,在未告知用户情况下,擅自将用户数据信息用于营销等商业活动,进而带来数据信息泄露风险。
在人机交互方面,主要担忧存在不准确甚至误导性答案。作为一种语言模型智能机器人,生成式对话文本局限在文字表面意思,并不能真正理解文字背后的引申含义,其内在逻辑和联想空间尚不具备生成文字上下语境的深层理解能力,意味着可能出现不周全解释、误导性解释,让用户相信一个并不完全正确的结论。
在隐私权保护方面,缺乏透明度使得数据隐私保护变得困难重重。作为一个复杂态深度学习模型,人工智能算法依然存在漏洞,比如加密算法可能被新的破解技术所攻破,尤其是量子计算技术的进步,使得传统的加密算法会变得不再安全。数据匿名化和差分隐私技术也并非万无一失,攻击者可能通过复杂的数据关联分析手段,重新识别出匿名化后的数据与特定用户的关系,加之其决策逻辑仍具“暗箱”性质,我们无法了解模型如何生成数据,也无法追溯数据处理路径和决策流程,更不能保证对算法运行完全可控,由此产生的侵犯客户隐私后果就不意外了。
在经济损失的赔付方面,无法准确界定赔偿责任主体和赔付标准。如果人工智能问题而造成的损失到底是由使用者承担,还是由披露数据的所有者、设计者承担?如何评估和计算赔偿数额?这些目前都不甚明确。2024年3月欧盟议会通过的《人工智能法案(AI Act)》,其中有因人工智能技术带来泄露个人信息风险的赔偿条款,这可以作为我国人工智能今后赔付条款的一个参考。
对此,金融行业和用户对人工智能产生的深度担忧是可以理解的,但我们不必恐慌。普惠金融发展需要人工智能,不能因为人工智能存在一定风险,就停止对人工智能创新探索。恰恰相反,未来普惠金融应该发挥人工智能优势,提升系统的可解释性与稳定性,加大提升同步优化事实准确性和逻辑连贯性功能,激发人工智能深层次创新活力,促进信息技术、数字技术与普惠金融融合,实现普惠金融领域动力变革、质量变革、效率变革,开拓我国普惠金融新业态。
《金融时报》记者:世界各国对人工智能伦理建设越来越重视,我国在人工智能伦理建设方面取得了哪些主要成果?您对于我国建立一个健康的人工智能生态系统又有哪些建议?
杜晓山:从世界范围看,各国对人工智能治理概况都采取了“立法先行、实践滞后”的做法,在法律上对人工智能做了一系列限制性规定,预防人工智能对金融市场和金融消费者产生的危害。比如,2021年12月13日,美国国家标准与技术研究院(NIST)发布《人工智能风险管理框架概念文件》、(AI Risk Management Framework Concept Paper),指导对人工智能风险管理框架的开发。2022年6月18日,加拿大发布的《2022年数字宪章实施法案》,在该法案中就有《人工智能与数据法》(Artificial Intelligence and Data Act,AIDA),目的就是为人工智能AI开发和使用创造新规则,确保各公司减轻伤害普通加拿大居民不受AI数据侵犯。2024年3月13日,欧盟委员会通过了《人工智能法案》(The AI Act)草案,关注欧盟各国人工智能系统隐私保护应用。
现阶段,我国并没有专门针对人工智能的法律治理和伦理道德方面的法律,但有一些对人工智能方面的监管规定,分散在各个时期颁布的网络信息、网络数据、人工智能法规中,比如早在2019年6月17日,国家新一代人工智能治理专业委员会颁布了《新一代人工智能治理原则——发展负责任的人工智能》,提出了人工智能治理的框架和行动指南,强调和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作、敏捷治理等八条原则,旨在更好协调人工智能发展与治理的关系,确保人工智能安全可控、持续可靠发展。又如,2021年9月25日,国家新一代人工智能治理专委会发布《新一代人工智能伦理规范》,为从事人工智能相关活动的自然人、法人和其他相关机构提供伦理指引。2022年1月28日,国家网信办发布《互联网信息服务深度合成管理规定(征求意见稿)》,要求尊重社会公德、商业道德,从技术角度对人工智能进行了一定约束。2022年11月16日,我国政府发布了《中国关于加强人工智能伦理治理的立场文件》,这也是我国连续两年在联合国平台提出人工智能治理必须坚持伦理先行原则。
我们必须意识到,人工智能不是独立于科技领域之外的“世外桃源”,不存在纯技术、全自由的人工智能在金融领域的自由驰骋,必须在法律保障和金融监管的框架下成长,在强调人工智能创新性的同时,还必须兼顾规范性,推动建立人工智能安全可控的治理体系。比如人工智能虽然可以通过审核功能自动化,实现人工智能金融业务合约开发、注册、认证、部署、执行、存储的数字化审核,但上述所有人工智能业务活动都必须符合法律法规和政策,否则人工智能搭建的所有流程、方式和结论都归无效。这对于强调高质量发展的国内金融市场来说,至关重要。
近日,习近平总书记在主持中共中央政治局第二十次集体学习时强调,加紧制定完善人工智能相关法律法规、政策制度、应用规范、伦理规则,确保人工智能安全、可靠、可控。为此,我们呼吁法律界、金融界和学术界一同努力,建立一个健康的人工智能生态,由金融监管、科技监管、工商管理相关部门采取共同行动,加紧制定完善人工智能相关法律法规、政策制度、伦理规则,构筑起国内公认的人工智能应用标准,明确人工智能生产者、服务者、使用者权利与义务关系,控制人工智能可能带来的金融、法律、伦理以及社会问题,逐渐形成全国统一的、可信赖的全国人工智能市场,而不是任凭人工智能自由发展,或跟随在西方国家后面人云亦云、丧失自我,确保我国人工智能安全、可靠、可控。
《金融时报》记者:确实如此。强化人工智能安全意识和底线思维非常有必要。那么,在人工智能大规模推广之前,我们应该在治理框架和监管规则方面率先做好哪些工作?
顾雷:人类的未来必须由我们自己决定,不应该由AI人工智能左右。我们必须秉持为民之心与商业智慧并重,对所有商业活动进行审查,任何算法技术和操作系统必须符合国家法律和伦理规范,不能屈从于利益集团,将人工智能变成一款可以疯狂赚钱的聊天机器人。
首先,我们需要有针对性地开展先期人工智能测试实验,对接人工智能软件或硬件进行内部测试,把保护金融消费者权利和对于金融市场安全性的要求体现在AI系统中,对于依然不成熟的人工智能技术,有必要暂缓对接市场,避免产生对金融消费者造成财产损失。比如针对人工智能算法,建立专门审查机制,构建完善算法与模型的风险防范与责任管理架构,要求研发者对算法的原理、逻辑和运行过程进行详细说明,提高算法透明度,以便监管机构和公众理解模型决策的依据和过程,减少“算法黑箱”风险。一句话,只有经过测试保证安全,经过行业认证、相关部门批准后人工智能才可投入使用。
其次,我们可以设置人工智能在金融市场特定义务条款,要求人工智能在使用过程中对任何个人、企业(机构组织)都负有防止伤害的法定责任,例如不能伤害人类,不能披露虚假或没有依据的信息,确保人工智能操作系统无害化、规范化。
再次,我们需要建立隐私权保护机制,加强对训练数据和应用数据的监管,对数据存储方式、数据分析算法、信息披露系统以及算法应用过程的隐私保护,确保数据来源和应用合法合规,禁止任何与隐私权保护法律法规相违背的业务行为。
最后,我们应该建立人工智能伦理标准,强调“算法伦理化”理念,通过技术整合创造更自然、更高效的人机协作方式,将重塑消费级产品的用户体验,还在工业控制、医疗手术、智能驾驶、高危场所作业、饮食送餐、家政服务以及其他服务领域推动生产力革新,未来的交互界面不再需要用户“学习如何使用”,而是AI主动“理解并适配”人类的行为习惯。为此,我们有必要在系统设计时就要考虑人类伦理规范,要求人工智能提供数据、信息来源保持中立、客观原则,不能有任何社会、地域、宗教、文化、民族、贫富和性别偏向,以安全性、透明性和友好性为基本准则,确保回答立场中性、客观和公正,如果发生有违道德和伦理问题,出错的数据、信息必须及时修改或移除,避免误用、滥用,防范人工智能非道德和反人类的恶意使用,确保人工智能不能挑战传统金融市场伦理道德。