"Aby regulační orgány důvěřovaly umělé inteligenci, musí ji ověřit – a důkazy s nulovou znalostí toto ověření umožňují, aniž by cokoli odhalily." – @BrianNovell, vedoucí BD ve společnosti @lagrangedev Na konferenci Verifying Intelligence during @token2049 Brian Novell vysvětlil, jak regulace umělé inteligence v konečném důsledku závisí na důvěře – jak institucionální, tak veřejné. Aby vláda nebo regulační orgán přijal umělou inteligenci v kritických pracovních postupech, musí nejprve věřit, že se systém chová správně, a občané musí věřit, že je používán zodpovědně. Tato dvojitá vrstva záruky je místem, kde důkazy s nulovou znalostí mohou hrát určující roli. Tím, že umožňuje systémům umělé inteligence prokazovat shodu nebo správnost bez odhalení citlivých dat, vytváří ZK kryptografický základ pro transparentní, ale soukromou odpovědnost. Je to chybějící most mezi potřebou regulačního dohledu a ochranou chráněných nebo osobních informací. Podívejte se na celý panel od Verifying Intelligence (ve spolupráci se společnostmi @googlecloud a @boundless_xyz) a zjistěte, jak týmy jako Lagrange pracují na tom, aby se ověřitelná umělá inteligence stala regulační realitou: