在 Qlik Connect® 2025大会前夕,Qlik人工智能委员会 Qlik®(AI Council)正围绕一个明确的信息达成行业共识:不可信的AI将无法扩展——而无法扩展的AI只是作秀。他们的观点聚焦于企业AI的关键转变:必须超越实验阶段,朝着以透明度、治理和可信数据为核心驱动力的执行阶段迈进。.
尽管对AI的投资创下纪录,大多数企业仍困在实验室阶段。根据 IDC近期研究, ,虽然80%的企业计划部署智能体AI工作流,但仅有12%准备好支持规模化自主决策。在人们对幻觉、偏见和监管压力日益担忧的背景下,对AI输出结果(outputs)的信任度正在下降。随着模型逐渐商品化,竞争优势正在转移——并非转向拥有最先进模型的厂商,而是转向那些能以速度、完整性和信任度运营AI的企业。.
Qlik AI委员会强调,信任必须从初始阶段就内置其中——而非事后追加。执行能力是新的差异化要素,只有当数据、基础设施和输出结果可验证、可解释且可操作时,这种能力才能发挥作用。在当前环境下,脱颖而出的企业不会是那些测试最多的——而是那些能交付实际成果的。.
“缺乏透明度与修正机制的AI从根本上无法扩展,”Humane Intelligence首席执行官Rumman Chowdhury博士表示,“在系统中嵌入自主性而不嵌入问责制是不可行的。不将治理视为核心基础设施的企业将会发现自身无法扩展——这不是受限于技术瓶颈,而是源于信任缺失。”
“我们正陷入AI信任危机,”Tamang Ventures创始人Nina Schick指出,“从深度伪造到篡改内容,公众信任正在崩塌。企业若想构建可扩展的AI,首先需要建立能让公众信赖的系统。这要求具备真实性、可解释性,以及对自动化失控所带来地缘政治风险的深刻认知。”
“监管环境正在快速演变,不会等待企业跟上步伐,”AI Asia Pacific Institute执行主任Kelly Forbes强调,“高管们需要认识到合规不再仅是法律保护措施,它已成为竞争优势。信任、可审计性与风险治理并非限制条件——它们正是实现企业级AI规模化的基石。”
“去年的诺贝尔奖认可了AI在科学发现中日益重要的地位,从新药开发、材料创新到数学定理验证,”牛津大学DeepMind人工智能教授Michael Bronstein博士表示,“数据是AI系统的命脉,我们不仅需要专门为AI模型设计的新数据源,更要确保能够信任构建任何AI平台所依托的数据基础。”
“市场亟需落地实践,”Qlik首席执行官Mike Capones指出,“企业落后并非因为缺乏强大模型的访问权限,而是未能将可信AI嵌入运营架构。正因如此,Qlik打造了专注于关键决策与可扩展行动的平台。若数据不可信,AI亦不可信。若AI不可信,终将被弃用。”
Qlik AI委员会的信息很明确:AI正在快速发展,但信任必须置于首位。采取行动的时刻不在下一季度,就在当下。未能将可信智能投入运营的企业必将落后——并非因为未构建系统,而是因为未能实现规模化应用。.
欲进一步了解Qlik AI委员会及推动可信可扩展AI的行业领袖观点,请通过直播参与本周举办的Qlik Connect大会。.

