AI需要ZK : 为了保证在设备上运行的LLM的可信性,使用ZK证明 ZK协处理器项目@lagrangedev在Google Cloud和HouseofZK主办的"验证智能"活动中,发布了关于为谷歌的Gemma3提供ZK证明的演讲。 Gemma 3是谷歌开发的轻量级高性能"在设备上"的LLM。与像GPT这样的大型AI模型在中央服务器上运行并获取结果不同,Gemma3是在用户的设备上运行并进行推理的轻量模型。 在设备上运行的LLM使得AI可以在没有网络连接的情况下使用,并且由于不需要将数据发送到中央服务器,因此可以保证隐私。此外,像GPT这样的AI使用费用大部分来自中央服务器的计算成本,因此也能大幅降低这方面的费用。 但是,模型在本地运行意味着无法期待中央服务器的信任。本地执行环境可能被篡改,推理结果也需要"自我"完全信任。在这种情况下,像拉格朗日的DeepProve这样的ZK协处理器被使用。DeepProve将本地运行的Gemma3的输出转换为ZK证明的形式。 通过这个ZK证明,使用Gemma3的用户可以 - 验证该模型接收了正确的输入, - 确保Gemma3按照设计进行了正确的计算, - 在不暴露敏感信息的情况下 自动进行验证。 事实上,这种轻量级本地执行LLM与ZK协处理器的结合与区块链+AI非常契合。 在去中心化的区块链节点中,通过像Gemma3这样的轻量高性能LLM提供推理结果,并将其转化为ZK证明进行提交,从而实现可信的分布式AI。 最终,在AI的本地执行时代,能够保证信任的ZK证明基础设施是必不可少的。 Lagrange的DeepProve等AI专用ZK协处理器将在这方面发挥重要作用。
@lagrangedev 不是 @Gem3a 请注意
3.32K