在临近之际Qlik 连接®2025年,人工智能理事会的柯利克®(人工智能理事会)正围绕一个明确的信息与行业达成共识:不能信赖的人工智能不会被推广——而无法推广的人工智能只是表演。 您的观点趋向于企业人工智能的关键转变:超越试验阶段,朝着执行迈进,这一过程由透明度、治理和可靠数据驱动。
尽管在人工智能方面的投资创纪录,但大多数公司仍然被困在实验室中。 根据IDC 最近的研究虽然80%的组织计划实施具有代理能力的人工智能工作流程,但只有12%感到准备好支持大规模的自主决策。 对结果的信任(输出人工智能提供的内容正在减少,原因是对幻觉、偏见和监管压力的担忧日益增加。 随着模型变得商品化,竞争优势正在发生变化——不再是拥有最先进模型的那些,而是能够以速度、完整性和信任来实现人工智能的那些。
Qlik 的人工智能委员会强调,信任应从一开始就融入,而不是事后添加。 执行是新的差异点,只有当数据、基础设施和输出是可验证、可解释和可操作的时,它才有效。 在当前的形势下,脱颖而出的公司将不是测试最多的那些,而是交付成果的那些。
“没有透明度和补偿的人工智能基本上无法扩展,”博士说。 鲁曼·乔杜里,Humane Intelligence的首席执行官。 无法将自主性融入系统而不将责任融入其中。那些不将治理视为核心基础设施的企业,将无法实现扩展——不是因为技术限制,而是因为信任的缺失。
“我们正陷入对人工智能的信任危机,”Tamang Ventures的创始人妮娜·席克(Nina Schick)说。 从深度伪造到操控内容,公众的信任正在崩溃。如果企业想要打造可扩展的人工智能,首先需要建立让公众相信的系统。这需要真实性、可解释性以及对自动化失控带来的地缘政治风险的深刻理解。
“监管环境正在迅速变化,不会等待企业跟上,”AI亚太研究所执行董事Kelly Forbes表示。 高管们需要理解,合规不再仅仅是法律保护。这是一个竞争优势。信任、可审计性和风险治理不是限制——它们是实现企业级人工智能可行性的关键。
“去年的诺贝尔奖表彰了人工智能在科学发现中扮演的日益突出的角色,从新药和新材料的开发到数学定理的证明,”牛津大学DeepMind人工智能教授迈克尔·布朗斯坦博士说。 数据是人工智能系统的生命力,我们不仅需要专门为人工智能模型设计的新的数据来源,还必须确保我们能够信任构建任何人工智能平台的数据。
“市场缺乏执行力,”Qlik的首席执行官迈克·卡朋说。 企业之所以失去优势,并不是因为缺乏强大的模型,而是因为没有将可靠的人工智能融入到其运营结构中。因此,在Qlik,我们创建了一个专注于决策行动和可扩展的平台。如果你的数据不可靠,你的人工智能也不会可靠;如果你的人工智能不可靠,它就不会被使用。
Qlik人工智能委员会的信息很明确:人工智能正在快速发展,但信任优先。 行动的时机不是在下个季度。 现在。 无法实现可靠智能的企业将被甩在后面——不是因为他们没有建立,而是因为他们无法扩大规模。
欲了解更多关于Qlik人工智能委员会及行业领导者推动可信赖和可扩展人工智能的信息,请参加本周的Qlik Connect直播。