“Om ervoor te zorgen dat toezichthouders AI vertrouwen, moeten ze het verifiëren - en zero-knowledge proofs maken die verificatie mogelijk zonder iets bloot te stellen.” - @BrianNovell, Hoofd BD bij @lagrangedev Tijdens Verifying Intelligence tijdens @token2049 legde Brian Novell uit hoe AI-regulering uiteindelijk neerkomt op vertrouwen - zowel institutioneel als publiek. Voor een overheid of toezichthouder om AI in kritieke workflows te adopteren, moet het eerst vertrouwen hebben dat het systeem correct functioneert, en burgers moeten vertrouwen dat het verantwoordelijk wordt gebruikt. Die dubbele laag van zekerheid is waar zero-knowledge proofs een bepalende rol kunnen spelen. Door AI-systemen in staat te stellen om naleving of correctheid te bewijzen zonder gevoelige gegevens te onthullen, creëert ZK de cryptografische basis voor transparante maar privé verantwoordelijkheid. Het is de ontbrekende brug tussen de behoefte aan regulatoire toezicht en de bescherming van eigendoms- of persoonlijke informatie. Bekijk het volledige panel van Verifying Intelligence (in samenwerking met @googlecloud en @boundless_xyz) om te zien hoe teams zoals Lagrange werken aan het realiseren van verifieerbare AI als een regulatoire realiteit: