Dit is hoe je AI anoniem kan gebruiken, aldus Ethereum ontwikkelaars
Steeds meer mensen gebruiken AI chatbots, maar daar zit ook een donkere kant aan. Elke vraag die je stelt, laat vaak een spoor achter. En als zo’n AI aanbieder je gebruik koppelt aan je e-mailadres, je creditcard of andere persoonlijke gegevens, dan kan dat grote gevolgen hebben voor je privacy.
Ethereum-oprichter Vitalik Buterin en Davide Crapis, de AI-lead van de Ethereum Foundation, komen nu met een voorstel dat dat probleem moet oplossen. Hun idee is dat je AI moet kunnen gebruiken zonder dat een bedrijf kan zien wie je bent, terwijl de aanbieder wél betaald krijgt en misbruik kan aanpakken.
Waarom privacy in AI nu belangrijk is
AI chatbots verwerken vaak gevoelige informatie. Denk aan werkdocumenten, persoonlijke problemen, medische vragen of vertrouwelijke bedrijfsgegevens. Als die data uitlekt, of als je gebruik later wordt gekoppeld aan je identiteit, kan dat vervelende juridische en veiligheidsrisico’s opleveren.
Volgens Buterin en Crapis is dat precies waar het nu misgaat. Veel AI diensten hebben een systeem waarbij je moet inloggen met persoonlijke gegevens. Dat is handig voor de aanbieder, maar slecht voor de gebruiker.
De keuze is nu vaak slecht of nóg slechter
De ontwikkelaars zeggen dat AI aanbieders op dit moment eigenlijk maar twee opties hebben, en allebei zijn ze niet ideaal.
De eerste optie is toegang via identiteit. Je betaalt bijvoorbeeld met een creditcard en maakt een account aan met je e-mailadres. Dat is efficiënt, maar het betekent ook dat je vragen en je identiteit aan elkaar gekoppeld kunnen worden.
De tweede optie is betalen per vraag via de blockchain. Dat klinkt privacyvriendelijk, maar is volgens hen in de praktijk traag, duur en makkelijk te volgen. Elke betaling staat namelijk zichtbaar op de blockchain.
Anoniem vragen stellen
Het nieuwe voorstel werkt anders.
In plaats van elke vraag apart te betalen, stort je één keer geld in een slim contract. Daarna kun je duizenden vragen stellen aan een AI model, zonder dat de aanbieder kan zien wie je bent, of welke vragen bij elkaar horen.
Ze noemen als voorbeeld dat iemand 100 USDC stort, en daarna 500 vragen stelt aan een AI chatbot. De aanbieder krijgt 500 betaalde verzoeken, maar kan niet zien dat die allemaal van dezelfde persoon komen. En dat is precies de bedoeling.
De techniek achter het idee
Buterin en Crapis willen hiervoor zero-knowledge proofs gebruiken, een techniek die je misschien kent uit crypto. Heel simpel uitgelegd betekent dit dat je kunt bewijzen dat je recht hebt om iets te doen, zonder te vertellen wie je bent of welke gegevens je precies gebruikt.
In dit geval bewijs je dat je genoeg saldo hebt om te betalen, zonder dat je identiteit of eerdere vragen zichtbaar worden.
Anoniem AI gebruiken klinkt geweldig, maar er zit ook een risico aan. Als niemand weet wie je bent, kun je ook makkelijker misbruik maken.
Daarom stellen Buterin en Crapis een systeem voor waarbij je een soort borg achterlaat. En als je je niet aan de regels houdt, ben je die borg kwijt.
Ze willen zelfs een dubbele beveiliging:
- Als iemand probeert te frauderen, bijvoorbeeld door dubbel te betalen of het systeem te misleiden, dan kan de borg worden opgeëist door anderen, zelfs door de server.
- Als iemand de regels van de AI aanbieder overtreedt, bijvoorbeeld door verboden content te vragen, dan wordt het gestorte geld vernietigd door het naar een zogenoemd burn adres te sturen.
Die straf wordt ook zichtbaar op de blockchain gezet, zodat iedereen kan zien hoe vaak het gebeurt.
Anoniem, maar niet zonder gevolgen
Een opvallend punt is dat je identiteit verborgen blijft, ook als je misbruik maakt. Het idee is dus niet om mensen te ontmaskeren, maar om ze financieel te raken als ze zich misdragen.
De gemeenschap kan volgens hen wél controleren hoeveel geld er wordt verbrand en welk bewijs daarbij hoort. Op die manier blijft er controle, zonder dat je privacy verdwijnt.