第七章:毕马威《2025年信任、态度与AI使用报告》——信任赤字与素养鸿沟的社会学警示
毕马威(KPMG)联合墨尔本大学发布的《2025年信任、态度与AI使用报告》(Trust, Attitudes and Use of AI: Global Study 2025)为火热的AI技术浪潮注入了一剂冷静的清醒剂。这项涵盖全球47个国家、超过48,000名受访者的超大规模调研,是目前关于AI社会心理学最权威的文献之一。如果说PwC的报告展示了AI的“经济红利”,那么KPMG的报告则揭示了其潜在的“社会赤字”。报告深刻地指出,全球范围内正酝酿着一场针对AI的“信任危机”,而这种信任的缺失可能成为制约AI进一步规模化应用的最大阻力。
报告的核心数据令人深省:高达54%的全球受访者对信任AI持“警惕态度”(wary),这表明怀疑和不安仍是公众面对这一新兴技术时的主流情绪1。尽管AI产品已经渗透到人们生活的方方面面,但这种普及并未自然转化为信任。公众的担忧主要集中在隐私泄露、算法偏见、虚假信息泛滥以及缺乏问责机制等方面。报告特别指出,这种不信任感在西方发达国家尤为强烈,而在一些新兴市场国家则相对较低,这种地缘心理差异将对跨国企业的全球AI部署策略产生深远影响。更重要的是,高达70%的受访者认为政府对AI的监管是“绝对必要”的1。这一压倒性的民意呼声表明,社会已经不再相信科技公司能够通过“自我监管”来解决AI带来的伦理风险,强力且明确的法律框架已成为公众安全感的底线。
报告的另一大发现是巨大的“AI素养差距”(AI Literacy Gap)。调研显示,61%的人表示自己没有接受过任何形式的AI培训,而在职场中,这一比例甚至更高——72%的员工表示其雇主没有提供任何AI相关培训1。这一数据揭示了“采用率”与“准备度”之间的严重脱节。虽然企业高管们在财报电话会议上大谈AI战略,但绝大多数一线员工却是在没有任何指导和规范的情况下“裸奔”使用AI工具。这不仅导致了效率提升的受限,更埋下了巨大的数据安全和合规隐患。KPMG警告称,这种素养鸿沟正在加剧社会的数字不平等,那些无法获得培训机会的人群将面临更大的职业风险。报告强调,提升全社会的AI素养已不再是个人的选择,而是企业和政府必须承担的公共责任。
此外,报告还深入探讨了“负责任AI”(Responsible AI)在建立信任中的关键作用。数据表明,当企业能够清晰地展示其AI系统的运作机制、数据来源以及人工干预措施时,用户的信任度会显著提升。然而,现实情况是,大多数AI系统仍是一个“黑盒”。报告呼吁企业必须将“可解释性”和“透明度”作为AI产品的核心功能来开发,而不仅仅是合规的选修课。毕马威认为,在2025年,信任将成为一种货币。拥有高信任度的企业将能够更快地推出新服务,获取更多用户数据,从而形成正向循环;而信任破产的企业即便拥有最先进的算法,也将寸步难行。因此,建立信任不应被视为阻碍创新的成本,而应被视为长期竞争优势的来源。
总结而言,毕马威的《2025年信任、态度与AI使用报告》揭示了技术进步背后的社会脆弱性。它提醒我们,AI的未来不仅仅取决于算法的算力,更取决于社会的“信力”。在技术狂飙突进的同时,如果忽视了公众的情感底线和伦理诉求,必将遭到反噬。对于政府而言,这份报告是立法的催化剂;对于企业而言,它是治理的教科书。它告诉我们,建立信任不再是公关部门的辞令,而是董事会必须严肃对待的战略资产。唯有弥合信任鸿沟,填补素养赤字,AI才能真正从一项令人敬畏的技术,转变为造福人类的工具。

留下评论