Wat als AI in uw naam een contract afsluitโฆ dat u eigenlijk niet wou?
Dat scenario is minder futuristisch dan het lijkt. AI-systemen kunnen vandaag al autonoom handelen. En net daar wringt het schoentje.
In veel gevallen zal de wet uitgaan van een eenvoudig principe:
๐ wie AI gebruikt, draagt ook de gevolgen van wat dat systeem doet.
Dat geldt zeker bij systemen die voorspelbaar werken (zoals software of smart contracts). De gebruiker wordt geacht controle te hebben over de werking en dus ook verantwoordelijkheid te dragen.
Complexer wordt het bij moderne AI-systemen die niet volledig voorspelbaar zijn. Die kunnen onverwachte of foutieve beslissingen nemen. Denk aan:
โช๏ธ verkeerde interpretaties
โช๏ธ foutieve onderhandelingen
โช๏ธ โhallucinatiesโ in output
Kan u zich daartegen verweren?
Dat is juridisch niet evident. U zal moeten aantonen:
โช๏ธ dat u correcte en duidelijke instructies gaf
โช๏ธ dat u niet nalatig was
โช๏ธ en dat het resultaat effectief afwijkt van wat redelijk verwacht mocht worden
Bovendien speelt ook de tegenpartij een rol: mocht die redelijkerwijze vertrouwen op het voorstel, dan wordt het moeilijk om het contract nog te betwisten.
๐ De realiteit is dus duidelijk: AI maakt processen efficiรซnter, maar verschuift ook risicoโs naar de gebruiker.
Daarom is het essentieel om:
โช๏ธ duidelijke interne regels vast te leggen
โช๏ธ AI-gebruik juridisch te kaderen
โช๏ธ en kritische beslissingen niet volledig te automatiseren
