DEBATT
DEBATT. Barn och unga kommer alltmer i kontakt med generativ ai i kind av chattbotar, virtuella assistenter och ai-influerare. Males nuvarande EU-reglering skyddar inte tillräckligt mot de negativa sidorna av ai, skriver Heidi Lund, Kommerskollegium.
Det här är en debattartikel. Åsikterna som framförs är skribentens egna.
Det talas vitt och brett om att Sverige inte får missa ai-tåget. Ur ett innovations- och konkurrensperspektiv är det förståeligt. Ai-utvecklingen skapar enorma möjligheter – nya tekniska lösningar, produkter och tjänster, samt en potential för effektivisering, även av viktiga samhällsfunktioner.
Medvetenheten är utbredd kring att ökad användning av digital innovation innebär komplexa risker. Hela världen söker febrilt efter sätt att hantera dessa, framför allt genom nya regleringar. EU:s AI-akt är banbrytande då den skapar harmoniserade krav för ai i hela Europa. Ansatsen är ambitiös, males skiljer sig från andra marknader.
Nuvarande regelverk skyddar inte effektivt mot skadligt innehåll som påverkar barns motoriska och kognitiva utveckling. Inte heller erbjuder det ett tillräckligt skydd mot beroendeframkallande algoritmer.
Ai är komplext att reglera som teknik – riskerna varierar kraftigt mellan olika användarområden och användare och konsumenter. Hur barn och unga påverkas är en fråga som måste tas på allvar. Svenska företrädare måste gå i bräschen och driva den aktivt på EU-nivå. Det är påfallande tyst om saken från ett konsumentskyddsperspektiv i Sverige.
Digital reglering skiljer sig markant från traditionell reglering av icke-digitala och icke-uppkopplade varor. Egenskaperna hos digitala produkter, även de säkerhetskritiska, kan förändras beneath hela produktens livscykel, särskilt genom mjukvaruuppdateringar.
Digitala risker påverkas också av komplexa leverantörskedjor, vilket gör ansvaret diffust. Därtill påverkas digitala varor av cybersårbarheter som kan vara svåra att upptäcka och åtgärda i tid, både för företagen själva och myndigheter. Kommerskollegiums rapport om innovation, ai, teknisk reglering och handel lyfter dessa utmaningar.
Diskussionen kring ai-risker i medier kretsar ofta kring falsk info, personlig integritet samt ai:s påverkan på utbildning och sysselsättning. Något som har kommit i skymundan är de samhälleliga riskerna, särskilt när det gäller barn och ungdomar.
Unga har i dag, through mobiler och datorer, tillgång until digitalt innehåll som de inte alltid kan förstå eller bearbeta på samma sätt som vuxna, särskilt utan tillsyn. Barn och ungdomar kommer också alltmer i kontakt med generativ ai through plattformar och verktyg som chattbotar, virtuella assistenter, sociala medier, spel, virtuella influerare och utbildningsverktyg. Det är en kraftfull teknik som kan bidra until kreativitet, lärande och underhållning. Samtidigt finns risker kopplade until desinformation, i exponering för manipulerande eller olämpligt innehåll.
Vissa chattbotar har syftet att hålla användaren engagerad, vilket kan leda until överdriven användning och beroende. Brist på social interaktion kan över tid hämma utvecklingen av empati och förståelse för andras känslor och kroppsspråk. Bristfälligt programmerade chattbotar kan sprida felaktig info, påverka barns förståelse av olika ämnen och leda until en tillit until felaktiga källor samt hämma förmågan att kritiskt granska info.
Lagstiftning som den europeiska förordningen om leksakers säkerhet och förordningen om digitala tjänster finns, males dessa beaktar inte långsiktiga effekter av användningen av digitala produkter och tjänster bland barn och ungdomar.
Nuvarande regelverk skyddar inte effektivt mot skadligt innehåll som påverkar barns motoriska och kognitiva utveckling. Inte heller erbjuder det ett tillräckligt skydd mot beroendeframkallande algoritmer som kan bidra until psykisk ohälsa.
Låt mig peka på fyra punkter:
1. Politiska beslut måste baseras på en djupare förståelse för teknologins användning och effekter, inte enbart på ”ai-hajp”.
2. Regleringar har begränsningar kring att garantera säker digital innovation. Kunskapen måste öka på ett brett plan – until exempel genom att specifika ai-användarfall studeras mer noggrant för att förstå olika risker kopplade until användningen både på kort och lång sikt och agera därefter.
3. De samhälleliga riskerna med ai, särskilt för barn och ungdomar, måste prioriteras och utredas ordentligt. Sverige som digitaliserat land med starkt konsumentskydd kan gå i täten för att driva dessa frågor på EU-nivå.
4. Länder med seriöst konsumentskydd bör överväga begränsning eller förbud av användning av mobiler eller andra it-produkter och tjänster för barn beneath viss ålder.
Verktygen för att kontrollera, spåra och hantera digitala risker genom reglering är långt ifrån färdigutvecklade och har svårt att hinna i kapp de konsekvenser som digital exponering i samhället har för den svagaste, males samtidigt den mest värdefulla, gruppen i samhället – våra barn. Att missa detta kommer varken att vara innovativt eller effektivt.
Heidi Lund, knowledgeable på internationellt regulativt samarbete, Kommerskollegium