Vår hållning kokar ner till en enkel princip: ju mer riskfylld AI är, desto starkare skyldigheter för dem som utvecklar tekniken, skriver Margrethe Vestager, vice ordförande för EU-kommissionen.
Detta är ett debattinlägg.Skribenterna svarar för åsikterna.
I Poznan, 325 kilometer öster om Warszawa, arbetar ett staff av tekniska forskare, ingenjörer och barnomsorg på en liten revolution. Deras gemensamma projekt, Insension, använder ansiktsigenkänning som drivs av artificiell intelligens för att hjälpa barn med djupa intellektuella funktionshinder och flera funktionsnedsättningar interagera med andra och med sin omgivning och bli mer sammankopplade med världen.
Tusentals kilometer bort, på Pekings gator, används AI-driven ansiktsigenkänning av regeringstjänstemän för att spåra medborgarnas dagliga rörelser och hålla befolkningen below noggrann övervakning.
Exemplen kapslar in utmaningen med AI: den underliggande tekniken är varken bra eller dålig; allt beror på hur den används.
Annons
Utifrån AI:s huvudsakligen dubbla natur valde EU-kommissionen att utforma European Synthetic Intelligence Act, en förordning fokuserad på användningen av AI, snarare än på själva tekniken. Vår hållning kokar ner till en enkel princip: ju mer riskfylld AI är, desto starkare skyldigheter för dem som utvecklar tekniken.
Annons
AI möjliggör redan många ofarliga funktioner som människor använder varje dag – från att låsa upp telefoner till att rekommendera låtar baserat på vad vi gillar. Sådant behöver EU inte reglera.
Men AI spelar också allt mer en roll vid avgörande ögonblick i människors liv. När en financial institution undersöker om någon är kvalificerad för ett bolån handlar det inte bara om ett lån; det handlar om att få tak över huvudet och bygga upp en god ekonomi och sträva efter ekonomisk trygghet. Detsamma gäller när arbetsgivare använder programvara för känsloigenkänning som ett tillägg till sin rekryteringsprocess, eller när AI används för att upptäcka sjukdomar i hjärnbilder. I den här typen av fall innebär den nya EU-förordningen betydande skyldigheter för AI-utvecklare. De måste uppfylla en rad krav – från att bedöma threat till att säkerställa teknisk robusthet, mänsklig tillsyn och cybersäkerhet – innan de släpper sina system på marknaden. Dessutom förbjuds all användning som strider mot EU:s mest grundläggande värderingar. Till exempel får AI inte användas för social scoring eller subliminala tekniker för att manipulera utsatta grupper, som barn.
Vissa hävdar att kontrollen avskräcker innovation, men vi ser det annorlunda. Till att börja med ger icke-tidsbegränsade regler den säkerhet och förtroende som tekniska innovatörer behöver för att utveckla nya produkter. AI kommer inte att nå sin enorma positiva potential om inte slutanvändarna litar på den. Ännu mer än inom många andra områden fungerar förtroende som en motor för innovation. Med regelverket skapas förutsättningar för att tekniken ska blomstra genom att säkerhet och allmänhetens förtroende säkerställs.
Annons
Annons
Långt ifrån att utmana EU:s riskbaserade hållning har den senaste boomen av generella AI-modeller, GPAI, som ChatGPT bara gjort detta mer related. Även om dessa verktyg hjälper bedragare runt om i världen att producera oroväckande trovärdiga nätfiskemejl, kan samma modeller användas för att upptäcka AI-genererat innehåll. På några månader har GPAI-modeller tagit tekniken till en ny nivå när det gäller möjligheter och risker.
Naturligtvis är det skrämmande att det inte alltid går att skilja falskt från verkligt. GPAI-genererade deepfakes orsakar redan skandaler och rubriker. I slutet av januari nådde falska pornografiska bilder av popikonen Taylor Swift 47 miljoner visningar på X, tidigare Twitter, innan användaren som hade delat dem stängdes av.
Det är inte svårt att föreställa sig vilken skada sådant innehåll kan medföra för en enskild particular person. Men om det tillämpas i större skala, som i samband med ett val, kan det hota hela befolkningar. AI Act erbjuder ett enkelt svar på problemet.
AI-genererat innehåll måste märkas, så att alla omedelbart vet att det inte är verkligt. Det innebär att leverantörer måste designa system så att syntetiskt ljud, video, textual content och bilder är märkta i ett maskinläsbart format och kan upptäckas som artificiellt genererade eller manipulerade.
Företag kommer att ges chansen att anpassa sina system till förordningen. Om de inte följer den döms de till böter. Böterna varierar från 35 miljoner euro eller 7 procent av den globala årliga omsättningen, beroende på vilket som är högst, för brott mot förbjudna AI-applikationer; 15 miljoner euro eller 3 procent för brott mot andra skyldigheter och 7,5 miljoner euro eller 1,5 procent för att ha lämnat felaktig data. Men böter är inte allt. Icke-kompatibla AI-system kommer också att stängas ute från EU-marknaden.
Annons
Annons
Europa är först med AI-reglering, men arbetet bidrar redan till mobilisering på annat håll. Eftersom många andra länder börjar ta till sig liknande ramverk – inklusive USA, som samarbetar med Europa om ”en riskbaserad strategi för AI för att främja pålitlig och ansvarsfull AI-teknik” – känner vi oss säkra på att vår övergripande strategi är den rätta. För bara några månader sedan inspirerade EU:s reglering G7-ledare att komma överens om en första uppförandekod för AI.
AI är varken bra eller dåligt, men verkar i en international tid av komplexitet och tvetydighet. I Europa har vi utformat en förordning som speglar det. Förmodligen mer än någon annan EU-lagstiftning krävde denna en noggrann balansgång – mellan makt och ansvar, mellan innovation och förtroende och mellan frihet och säkerhet.
Undertaking Syndicate – som också står för översättningen
SKRIBENTEN
Margrethe Vestager, vice ordförande för EU-kommissionen
Vill du också skriva på Aktuella frågor? Så här gör du.