"För att tillsynsmyndigheter ska lita på AI måste de verifiera den - och nollkunskapsbevis gör den verifieringen möjlig utan att avslöja något." - @BrianNovell, chef för BD på @lagrangedev På Verifying Intelligence under @token2049 förklarade Brian Novell hur AI-reglering i slutändan handlar om förtroende – både institutionellt och offentligt. För att en myndighet eller tillsynsmyndighet ska kunna införa AI i kritiska arbetsflöden måste de först lita på att systemet beter sig korrekt, och medborgarna måste lita på att det används på ett ansvarsfullt sätt. Det är i det dubbla lagret av tillitsnivå som bevis för nollkunskap kan spela en avgörande roll. Genom att tillåta AI-system att bevisa överensstämmelse eller korrekthet utan att avslöja känsliga data, skapar ZK den kryptografiska grunden för transparent men ändå privat ansvarsskyldighet. Det är den bro som saknas mellan behovet av tillsyn och skyddet av proprietär eller personlig information. Titta på hela panelen från Verifying Intelligence (i samarbete med @googlecloud och @boundless_xyz) för att se hur team som Lagrange arbetar för att göra verifierbar AI till en regulatorisk verklighet: