AI OCH AUTOMATISERING

Så påverkas företagen av nya AI-lagen – ”Många håller andan”

Helena Silling, Securitas Group, Anna Sööder, Schibsted och Carolina Brånby på Svenskt Näringsliv. Bild: Mostphotos, Pressbild, Linda Broström, Ernst Henry Photography

Med snabbt framtagna tillägg efter uppmärksamheten kring ChatGPT går nu förhandlingarna kring EU:s AI-lagstiftning in i slutfasen. Men en alltför trubbig reglering riskerar att hämma användning av AI, varnar företag som TN talat med.

Inom EU-parlamentet pågår just nu arbetet med att förhandla fram vad som har kallats för ”världens första regelbok för artificiell intelligens”. På torsdag (11/5) kommer förslaget till den förordning som ursprungligen togs fram av kommissionen, att voteras i de två ansvariga parlamentsutskotten. En omröstning i parlamentet beräknas ske i mitten av juni. Därefter vidtar så kallade trepartssamtal och den slutgiltiga lagstiftningen bedöms kunna vara på plats innan årsskiftet.

”Någon form av reglering behövs, men det finns en föreställning om att det här området är så oreglerat och det stämmer inte.”

En central del av denna ”AI Act” är ett klassifikationssystem som delar in olika AI-system utifrån den risk de anses utgöra. Det finns fyra olika risknivåer, där system med vad som bedöms vara ”oacceptabel risk”, till exempel ranking av medborgare och ansiktsigenkänning på distans i offentliga miljöer, blir otillåtna, medan system som klassificeras som ”hög risk” kommer att bli föremål för särskilda krav på tillsyn och registrering. Det senare kan till exempel handla om system som används vid antagning till utbildning, vid anställning, för medicinska ändamål eller i infrastrukturtillämpningar.

– Någon form av reglering behövs, men det finns en föreställning om att det här området är så oreglerat och det stämmer inte, säger Anna Sööder, public policy-specialist på Schibsted.

Ser fantastiska möjligheter med tekniken

Schibstedgruppen är bland annat Skandinaviens största mediehus och har under lång tid arbetat med AI för att förbättra sina produkter.

– Vi kan använda AI för att göra sammanfattningar, översätta texter och omvandla text till tal, och tvärtom, säger Anna Sööder. I Norge har vi till exempel skapat en syntetisk röst som kan läsa upp nyheter och som är baserad på en av de största podcaststjärnorna. Det innebär en stor fördel för personer som pendlar till jobbet, men också för personer med olika funktionsnedsättningar. Så vi ser fantastiska möjligheter med tekniken.

Anna Sööder, public policy-specialist på Schibsted. Bild: Linda Broström

Allt fler tekniker och användningsområden har under diskussionerna hamnat i högrisk-kategorin. Hur så kallade generativa språkmodeller ska regleras har seglat upp som en av de hetare frågorna efter den omfattande uppmärksamhet som ChatGPT har rönt de senaste månaderna. Från tidningsbranschens sida har man hela tiden verkat för ett undantag från högriskkraven när modellerna används under publicistiskt ansvar. Journalistiken har redan en egen ansvarsordning, menar Anna Sööder.

– I princip alla länder har någon form av medieetik och journalistiska principer som man utgår ifrån i sin verksamhet. Det hänger ihop med förtroendet för journalistiken. Vi kan inte publicera rakt av det som ChatGPT skriver, eftersom vi har ett utgivaransvar.

Enligt Anna Sööder pågår det en omfattande diskussion i branschen om vikten av transparens när man arbetar med AI-verktyg, till exempel genom att märka bilder som är AI-genererade. Ett alltför omfattande EU-regelverk skulle däremot riskera att skapa svårigheter framför allt för mindre tidningshus och för startupföretag.

– Då riskerar innovationer inom journalistiken att hämmas, säger Anna Sööder, Schibsted.

Befarar ökad administration

Säkerhetsföretaget Securitas är ett annat bolag som ser en stor potential för att använda AI för att förbättra sina tjänster. Helena Silling, head of global legal data and privacy, Securitas Group, exemplifierar vad det kan handla om.

– Vi har 358 000 medarbetare globalt och därigenom väldigt mycket data som vi med hjälp av AI skulle kunna dra slutsatser av. Genom att till exempel analysera data från dörrar, rörelsesensorer och så vidare så kan vi skapa modeller för att hitta risker mer proaktivt.

Helena Silling, head of global legal data & privacy på Securitas Group. Bild: Pressbild

Helena Silling beskriver en situation där en väktare ska gå runt i en galleria eller annan stor byggnad på natten och kan få hjälp att prioritera vart denne ska gå först och snabbt kunna agera där något är på väg att hända.

– Med tanke på de stora datamängder det handlar om är det här mönster som är mycket svåra att analysera manuellt. Vi ser med andra ord stora möjligheter till innovation inom AI-området för att hjälpa personalen att arbeta mer effektivt.

Det finns dock en risk att en del av den innovationen uteblir om alltför stor del av utvecklingsbudgeten behöver läggas på att uppfylla administrativa krav, menar Helena Silling.

– En del av problemet är att lagstiftningsförslaget är lite för vagt på några punkter, till exempel var gränsen för högrisk-AI går. Det innebär att vi kommer att behöva behandla många utvecklingsinitiativ som potentiella högrisksystem, med all den administration som det innebär.

”Det är många företag som håller andan”

Ett av de områden som kommissionen klassificerat som högrisk är nämligen när AI används inom rekryteringsprocesser och andra arbetsmarknadsrelaterade tillämpningar som påverkar anställdas arbetsmiljö. Här råder oklarheter, menar Helena Silling, kring vad som mer exakt ska räknas in i den kategorin.

– Det blir en gråzon. Kommer alla AI-system som används av våra väktare automatiskt att hamna inom det området? Vi kommer att behöva lägga mycket pengar och resurser på att uppfylla administrativa krav, som i stället hade kunnat läggas på att göra väktarnas arbete effektivare och säkrare, och som såklart även syftar till att leverera bästa möjliga tjänster till våra kunder.

– Det är många företag som håller andan, säger Carolina Brånby, expert på digital policy på Svenskt Näringsliv.

Risk att produkter försenas

Förslaget till AI-reglering har behandlats i månader i parlamentet. Ett flertal förändringar har gjorts utifrån det förslag som kommissionen lade i april 2021.

– Till en början gjordes många relevanta och viktiga förbättringar. De sista veckorna har dock ändringarna blivit så omfattande att de är svåra att överblicka, menar Carolina Brånby. Vissa företag hävdar bestämt att de administrativa pålagorna för att få använda så kallad högrisk-AI och generativ AI ger en fördröjning på upp till två år innan en ny produkt eller tjänst kan sättas på marknaden. Det fungerar inte i praktiken.

Carolina Brånby, expert på digital policy hos Svenskt Näringsliv. Bild: Ernst Henry Photography

På spel står hur Europa kommer ta tillvara på AI framöver. I förlängningen handlar det om konkurrenskraft och jobbtillfällen, säger Carolina Brånby.

– Förutom AI-akten förhandlas dessutom Dataakten. Dessa två regleringars slutversion kommer påverka affärsmodeller och affärsmöjligheter på ett mycket omfattande sätt och som det ser ut nu kan parlamentarikerna omöjligt ha hunnit göra den analysen färdigt. Det behövs mer tid och kunskap för att regleringarna ska hamna rätt och gynna både företagande och samhället i stort.