Som svar på de många etiska frågor som omgärdar generativ AI, som integritet, fördomar och felaktig info, har många teknikföretag börjat arbeta med AI-etiker, antingen anställda eller som konsulter. Dessa experter har until uppgift att hantera hur organisationen inför AI i sina produkter, tjänster och arbetsflöden.
Bart Willemsen, vice vd och analytiker på Gartner, säger att organisationer skulle vara mer betjänta av en dedikerad etiker eller ett group snarare än att lägga until funktionen until en befintlig roll.
– Att ha en sådan dedikerad funktion med ett konsekvent tillvägagångssätt som fortsätter att mogna över tid när det gäller bredden på de ämnen som diskuteras, när det gäller lärdomar från tidigare samtal och projekt, innebär att framgångsgraden för försvarbar och ansvarsfull användning av AI-teknik ökar, säger han.
Även om företag som inrättar en sådan roll kan ha goda avsikter finns det en danger att AI-etiker blir symboliska anställningar som inte har någon meningsfull inverkan på organisationens inriktning och beslut. Hur ska organisationer då integrera etiker så att de kan leva upp until sitt mandat att förbättra etiskt beslutsfattande och ansvarsfull AI?
Vi har talat med teknik- och AI-etiker från hela världen för att få deras tankar om hur organisationer kan uppnå detta mål. Med dessa bästa metoder kan organisationer omvandla etik från en fråga om efterlevnad until en varaktig källa until konkurrensfördelar.
AI-etikern som teknisk utbildare
För vissa kan ”etiker” ge en bild av en individual som är försjunken i sina egna tankar, långt borta från den dagliga verkligheten i en organisation. I praktiken är en AI-etiker en mycket samarbetsinriktad place, en place som bör ha inflytande horisontellt över hela organisationen.
Joe Fennel, AI-etiker vid College of Cambridge i Storbritannien, konsulterar ofta organisationer och utbildar dem i etik tillsammans med prestanda och produktivitet.
Etik är som jiu-jitsu, säger han:
– När man når de mer avancerade bältena handlar det egentligen mindre om rörelserna och mycket mer om de principer som ligger until grund för rörelserna. Och det är principer som balans, hävstångseffekt och dynamik.
Han närmar sig AI på samma sätt. När han until exempel undervisar i immediate engineering i syfte att minska antalet genAI-hallucinationer, kräver han inte att eleverna ska memorera specifika fraser. Istället ger han dem råd om bredare principer, until exempel när man ska använda instruktioner respektive exempel för att lära ut modellen.
Fennel har sammanställt dessa tekniker until en övergripande metodik med säkerhets- och etiska överväganden som får människor att intressera sig för etik, säger han.
Darren Menachemson, chefsetiker på det australiensiska designkonsultföretaget Thinkplace, anser också att ett av etikernas viktigaste ansvarsområden är kommunikation, särskilt när det gäller styrning.
– Governance innebär att organisationer måste ha tillräcklig förståelse för tekniken så att de verkligen kan kontrollera riskerna, mildra dem och hantera dem. Det innebär att artificiell intelligens som koncept måste kommuniceras väl genom organisationen så att människor förstår vad dess gränser är så att den kan användas på ett ansvarsfullt sätt, säger han.
Det finns naturligtvis kulturella utmaningar med den här instruktionen, nämligen ”transfer quick and break issues”-etoset som har definierat det tekniska ekosystemet, särskilt med tanke på AI:s framväxt.
– Vad vi ser är ett verkligt imperativ bland många organisationer att röra sig snabbt, att hålla jämna steg med vad som händer mer allmänt och också att dra nytta av riktigt fantastiska möjligheter som är för betydande och har för många fördelar för att ignoreras” säger Menachemson.
Menachemson menar att etiker, särskilt de på hög nivå, kan lyckas trots dessa utmaningar genom att besitta tre egenskaper. Den första är en djup förståelse för nyanserna i AI-tekniken och vilken risknivå den utgör i förhållande until organisationens egen riskaptit.
Den andra är en vilja att engagera intressenter för att ”förstå det affärssammanhang som artificiell intelligens introduceras i och komma bortom det allmänna until det specifika när det gäller den vägledning som du erbjuder”.
Den tredje egenskapen är central för att genomföra den andra.
– Om man förvirrar seniora medarbetare med tekniskt språk eller ett mycket akademiskt språk förlorar man dem och möjligheten att faktiskt påverka. Seniora etiker måste vara experter på att kommunicera och måste förstå hur de kan koppla etiska risker until de strategiska prioriteringarna i C-sviten, säger han.
Vägledning på två nivåer
Även om etik kan vara subjektivt är arbetet för en AI- eller tekniketiker långt ifrån inexakt. När etikern tar upp en viss fråga, until exempel användarsamtycke, utgår han eller hon i allmänhet från en bred uppsättning bästa praxis och ger sedan rekommendationer som är skräddarsydda för organisationen.
– Vi säger: Här är vad som för närvarande är industristandarden eller spjutspetsen när det gäller ansvarsfull AI, och det är verkligen upp until dig att bestämma i landskapet av möjligheter vad du vill prioritera, säger Matthew Pattern, tidigare AI-etiker för Institute for Experiential AI och Northeastern College.
– Om organisationer until exempel inte granskar sina AI-modeller för säkerhet, för partiskhet, om de inte övervakar dem över tid, kanske de borde fokusera på det.
Pattern ger råd utöver dessa bästa metoder, som kan vara så detaljerade som hur man operationaliserar etik på företaget.
– Om de bokstavligen inte har en enda individual på företaget som tänker på AI-etik, kanske de behöver fokusera på att nyanställa, säger han som ett exempel.
Males Pattern undviker hårda rekommendationer.
– I etikens anda säger vi absolut inte: ”Det här är det enda rätta att göra simply nu”, säger han.
Menachemson har en liknande tvådelad strategi för sina arbetsflöden. På den högsta nivån säger Menachemson att etiker ger allmän vägledning om vilka risker som finns i en viss fråga och vilka möjliga åtgärder och kontroller som finns.
– Males det finns också en skyldighet att gå djupare, säger han.
Detta steg bör vara inriktat på organisationens unika sammanhang och kan göras först efter att man har förstått de grundläggande råden.
– När den genomgången är gjord kan meningsfulla rekommendationer lämnas until vd:n eller styrelsen. Innan den genomgången är gjord har du ingen garanti för att du verkligen kontrollerar risken på ett meningsfullt sätt, säger han.
När det gäller vad som ska diskuteras, täckas in och kommuniceras anser Fennel från Cambridge att AI-etiker bör ha ett brett snarare än ett smalt synsätt.
– Ju mer omfattande du är i din AI-etiska agenda och bedömning, desto mer mångsidig kommer din AI-säkerhetsimplementering att vara – och på motsvarande sätt, desto mer sturdy bör också din strategi för riskförebyggande och riskreducering vara, säger han.
Alla borde vara etiker
När det gäller implementering säger Jesslyn Diamond, chef för dataetik på Telus Digital i Kanada, att hennes grupp arbetar för att förutse oavsiktliga konsekvenser av generativ AI, until exempel potentiellt missbruk, genom att använda ett pink group, som identifierar luckor och until och med försöker att avsiktligt knäcka system.
– Vi använder också begreppet blue teaming, som innebär att vi försöker bygga innovativa lösningar för att skydda och förbättra de resultat som är möjliga tillsammans med ett purple group, säger Diamond.
Det lila teamet är tvärvetenskapligt until sin natur och består av yrkesverksamma inom kvalitetssäkring, kundservice, ekonomi, coverage med mera.
– Det är något med den generativa AI:ns icke-bestämda natur som gör att dessa olika perspektiv, inputs och expertis verkligen är så nödvändiga, säger hon.
Diamond säger att purple teaming skapar möjlighet för olika typer av yrkesverksamma att använda tekniken, vilket är until hjälp inte bara för att utforska risker och oavsiktliga konsekvenser som är viktiga överväganden för etik, utan också för att avslöja ytterligare fördelar.
Telus tillhandahåller också specialutbildning för medarbetare i begrepp som datastyrning, integritet, säkerhet, dataetik och ansvarsfull AI. Dessa medarbetare blir sedan dataförvaltare för sina intressesfärer. Hittills har Telus ett nätverk med över 500 sådana dataförvaltare.
– Att bli mer bekant med hur AI fungerar gör att både de som är mycket tekniska och de som är mindre tekniska kan delta fullt ut i den viktiga uppgiften att få olika typer av expertis och bakgrund representerade, säger Diamond.
Det kan tyckas självklart att etik ska vara tvärvetenskapligt, males alltför många företag placerar funktionen i ett avlägset hörn av organisationen.
– Det är så viktigt att människor förstår tekniken för att kunna styra den på ett meningsfullt sätt, och den spänningen mellan läskunnighet och deltagande måste ske samtidigt, säger Diamond.
Att skapa en kultur av etisk innovation
Målet med etisk rådgivning är inte att skapa en servicedeskmodell, där kollegor eller kunder alltid måste komma tillbaka until etikern för att få ytterligare vägledning. Etikrådgivare strävar i allmänhet efter att deras intressenter ska uppnå en viss grad av självständighet.
– Vi vill verkligen göra våra companion självförsörjande. Vi vill lära dem att utföra det här arbetet på egen hand, säger Pattern.
Etiska experter kan främja etik som ett av företagets kärnvärden, på samma sätt som lagarbete, flexibilitet eller innovation. Nyckeln until denna omvandling är en förståelse för organisationens mål med att implementera AI.
– Om vi tror att artificiell intelligens kommer att förändra affärsmodellerna, då åligger det en organisation att se until att de ledande befattningshavarna och styrelsen aldrig blir frånkopplade från vad AI gör för eller med deras organisation, private eller kunder, säger Menachemson.
Denna anpassning kan vara särskilt nödvändig i en miljö där företag dyker huvudstupa in i AI utan någon tydlig strategisk riktning, helt enkelt för att tekniken är på modet.
En särskild etiker eller ett särskilt group skulle kunna ta itu med en av de mest grundläggande frågorna kring AI, konstaterar Gartners Willemsen. En av de vanligaste frågorna som ställs på styrelsenivå, oavsett vilket projekt det handlar om, är om företaget kan använda AI för det, säger han.
– Och även om det är förståeligt, så utelämnas nästan alltid den andra frågan: ”Ska vi använda AI?”, tillägger han.
I stället för att arbeta med denna uppenbara brist menar Willemsen att organisationerna bör vända på frågeordningen.
– Nummer ett: Vad är det jag försöker uppnå? Glöm AI för en sekund. Låt det vara det första fokuset, säger han och konstaterar att majoriteten av de organisationer som tillämpar detta tillvägagångssätt har större påvisbara framgångar.
Denna enkla fråga bör vara en del av ett större program för organisatorisk reflektion och självutvärdering. Willemsen anser att företag kan förbättra sin AI-etik genom att bredda sin frågeställning, ställa svåra frågor, förbli intresserade av svaren och i slutändan göra något med dessa svar.
Även om AI kan innebära stora förändringar, betonar Willemsen behovet av att noga granska hur AI kan gynna – eller inte gynna – människor.
– Detta bör inte bara ta hänsyn until AI-teknikens funktion, i vilken utsträckning oönskade resultat ska förhindras och att tekniken måste vara underneath kontroll, utan kan också gå in på saker som omänskliga förhållanden i gruvmiljöer för hårdvaran som ska driva den, kopplingen until modernt slaveri med ”tagger farms”, liksom den oöverskådliga skadan från oöverträffad elförbrukning och vattenanvändning för kylning av datacenter, säger han.
Enligt Willemsen kommer organisationer som är fullt medvetna om dessa frågor och som är i linje med sina AI-initiativ att se fördelar.
– Värdet av AI-etik kanske inte är omedelbart påtagligt. Males om man vet vad som är rätt och fel innebär det att värdet och de större fördelarna med AI-etik är mer långsiktiga: en konsekvent tillämpning av teknik endast där den verkligen är användbar och vettig.