Met de huidige introductie op grote schaal van AI agents o.a. in ChatGPT, Claude of Openclaw is het geen utopie meer: AI-systemen die autonoom contracten afsluiten.
Maar kan dat ook juridisch?
Het klassieke contractenrecht vertrekt van รฉรฉn basisprincipe: een overeenkomst ontstaat door de wil van partijen. Aanbod en aanvaarding moeten dus terug te brengen zijn tot een menselijke beslissing.
Toch zien we vandaag al systemen die automatisch handelen:
โช๏ธ software die bestellingen plaatst
โช๏ธ smart contracts die zichzelf uitvoeren
โช๏ธ AI-agents die onderhandelingen voeren
In dergelijke gevallen wordt vaak gewerkt met het principe van toerekening: de handelingen van het systeem worden toegeschreven aan de gebruiker.
Met andere woorden: wie het systeem inzet, neemt in principe ook het risico.
Internationale tendensen gaan in dezelfde richting. Als u AI bewust inzet om transacties te laten verlopen, kan u dus ook gebonden zijn door het resultaat zelfs zonder dat u zelf nog โop de knop druktโ.
Tegelijk blijft er veel onzekerheid:
โช๏ธ wat als AI een fout maakt?
โช๏ธ wat als het resultaat niet overeenstemt met uw bedoeling?
โช๏ธ hoe ver reikt uw controleplicht als gebruiker?
De technologie is er. Het juridisch kader volgt nog…
๐ Eรฉn zaak staat vast: wie AI inzet in commerciรซle processen, doet er goed aan om duidelijke afspraken te maken over gebruik en bevoegdheden. En zorg dat je te allen tijde de controle behoud, zeker in deze begin periode van de agentic AI.
๐๐ฏ een volgende ๐๐๐ ๐จ๐ข๐ข๐ฏ ๐ธ๐ฆ ๐ฏ๐ฐ๐จ ๐ช๐ฆ๐ต๐ด ๐ฅ๐ช๐ฆ๐ฑ๐ฆ๐ณ ๐ช๐ฏ ๐ฐ๐ฑ ๐ฅ๐ฆ ๐ข๐ข๐ฏ๐ด๐ฑ๐ณ๐ข๐ฌ๐ฆ๐ญ๐ช๐ซ๐ฌ๐ฉ๐ฆ๐ช๐ฅ.
