Stanley Greenstein

Beslutssystemen svarta lådor: Tillskrivandet av ansvar och juridikens framtida roll

Home 5 Verksamhet 5 Projekt 5 Stanley Greenstein

Beslutssystemen svarta lådor: Tillskrivandet av ansvar och juridikens framtida roll

Artificiell intelligens (AI) är ett kraftfullt verktyg som olika aktörer, båda privata och offentliga, alltmer använder för att identifiera risker och möjligheter. Men den ökade användningen av AI i vårt samhälle kan också orsaka skador för individer, särskilt skador relaterade till individers personliga autonomi men även skador i förhållande till andra rättigheter. AI är ett brett koncept som täcker många olika slags tekniska begrepp, såsom prediktiv modellering, maskininlärning, ”big data” och databrytning där algoritmer används för att identifiera mönster i data som människor inte kan identifiera på grund begränsad kognitiv kapacitet. AI har också förmågan att känna igen och förutsäga människors agerande och öppnar därmed för möjligheten att påverka mänskligt beteende.

I strävan efter lönsamhet och effektivisering förs AI i ökande grad in i beslutssystem för att påverka överväganden och beslut. Ett begrepp som används för att beskriva sådana beslutsystem är ”svarta lådor” (”black-box decision-making systems” på engelska) eftersom de saknar transparens och består av oerhört komplex teknologier. De svarta lådorna kan användas för ganska enkla saker, till exempel för att föreslå musikval, presentera urval av nyhetsflöden eller individualisera sökresultat. Men de kan också användas för att bestämma om någon ska få kredit, om någon ska få ett jobb eller om någon ska få försäkring, för att nämna bara några exempel där ett orättvist beslut kan få allvarliga konsekvenser för individen. Oavsett syftet, så kan de svarta lådorna påverka individens autonomi negativt.

En genomgång av de befintliga regelverken visar att AI inte har någon legal definition och är i princip oreglerad, med några få undantag. En preliminär slutsats är att de befintliga traditionella juridiska instrumenten överlag uppvisar avsevärda tillkortakommanden, inte minst vad gäller komplexitet och vaghet. Det blir också allt svårare att reglera en teknik (AI) med traditionell juridik i en kontext där tekniken utvecklas mycket fortare än den traditionella juridiken.

Syftet med projektet är att presentera alternativa reglerande tillvägagångssätt för att säkerställa att de svarta lådor som utmärker AI kan hållas ansvariga samt föreslå alternativa juridiska lösningar som bättre kan hålla jämna steg med AI. Det finns många fördelar för samhället med användningen av AI. Men utnyttjandet av den här tekniken innebär också allvarliga risker för människor. En nyckelfråga blir följande: finns det ett sätt att stärka det mänskliga värdet samtidigt som AI fortsätter att utvecklas?

Om forskaren

Stanley Greenstein (Jur. Dr.) är universitetslektor i rättsinformatik vid Institutet för rättsinformatik, Juridiska institutionen, Stockholms universitet. Stanley disputerade 2017 med avhandling Our Humanity Exposed: Predictive Modelling in a Legal Context. Avhandlingen undersöker de skador som kan uppstå med den ökade användningen av artificiell intelligens (AI) i vårt samhälle. Stanleys intresseområde är förhållandet mellan juridik och teknik samt de juridiska och etiska frågor som uppstår till följd av den ökande användningen av digitala verktyg i vårt samhälle. Stanley har en mångårig erfarenhet av undervisning på både grund- och specialkurser på juristprogrammet samt medverkar i EU-projekt. 

Kontaktuppgifter

e-post: stanley.greenstein@juridicum.su.se

Postadress: Stockholms universitet,
Juridiska institutionen,
106 91 Stockholm