Categories: AI i affärerBlogg

UE:s AI-lag. Hur reglerar Europa användningen av artificiell intelligens | AI i affärer #68

Vad är AI-lagen, och varför är den viktig för SME:er (små och medelstora företag)?

AI-lagen är den första regleringen av sitt slag i världen. Den första som omfattande adresserar artificiell intelligens från ett människocentrerat perspektiv på AI. Den syftar till att säkerställa att AI-system som används i Europa är säkra och stimulerar innovation, samtidigt som grundläggande rättigheter respekteras, med ett särskilt fokus på:

  • hälso- och sjukvård – till exempel, respektera patientdatas integritet,
  • utbildning – följa värderingar som främjas av Europeiska unionen och undvika diskriminering,
  • gränsskydd – säkerställa säkerhet utan att kränka medborgarnas rättigheter,
  • offentliga tjänster – följa bästa praxis inom dataskydd, rätten till information och tydlig kommunikation.

För SME:er kommer AI-lagen främst att ge större rättslig säkerhet eftersom den tydligt definierar ramen för innovation: principerna för design, utveckling och tillämpning av AI-system. Det kommer att göra det lättare för företag att investera i AI-baserade lösningar, vilket minskar juridiska risker. Dessutom kommer regleringar som gäller över hela unionen att förhindra marknadsfragmentering.

Europeiska regleringar om artificiell intelligens antogs av Europaparlamentet och Europarådet den 9 december 2023. Nu måste de formellt accepteras av båda institutionerna för att träda i kraft.

Nyckelaspekter av AI-lagen för företag

EU:s AI-lag inför en uppsättning krav för AI-system, beroende på risknivån. Dessa krav inkluderar bland annat:

  • skyldighet till transparens och att informera användare vid interaktioner med chattbotar, biometriska system eller teknologier för känsligenkänning,
  • förbud mot att använda känsliga attribut för biometrisk kategorisering,
  • obligatorisk efterlevnadsbedömning innan marknadsinträde för hög-risk system,
  • obligatorisk registrering i EU-databasen — efter att AI-lagen träder i kraft kommer AI-system som används inom nyckelsektorer som utbildning, anställning, hälso- och sjukvård och brottsbekämpning att behöva registreras.

Tillverkare och företag som använder AI-system kommer också att vara skyldiga att övervaka risker efter att de introducerats på marknaden. Detta kommer att påverka företag som designar och implementerar AI-system direkt.

Risknivåer för AI-system enligt EU:s AI-lag

AI-lagen klassificerar AI-system i fyra kategorier baserat på deras risknivå:

  1. Oacceptabel risk
  2. Hög risk
  3. Begränsad risk
  4. Minimal risk

Låt oss ta en närmare titt på hur varje grupp kommer att definieras, tillsammans med exempel på system och deras klassificeringar.

Oacceptabel risk

Europeiska unionen inför ett totalt förbud mot användning av teknologier som listas i AI-lagen som system med oacceptabel risk. Dessa är främst system som är utformade för att utnyttja individers mottaglighet för förslag för manipulation eller bedrägeri, system som ger artificiell intelligens möjlighet att fatta beslut i avgörande frågor, och de som kan leda till maktmissbruk. Exempel på AI med oacceptabel risk inkluderar:

  • autonoma vapen som fungerar utan mänsklig övervakning,
  • system för bedömning av trovärdighet som används av brottsbekämpande myndigheter,
  • automatiska identifieringssystem för individer i offentliga utrymmen, såsom de som baseras på övervakningskamerabilder,
  • artificiella intelligenssystem som kan vara skadliga för individer med fysiska eller mentala funktionsnedsättningar,
  • AI som används för brottsbekämpande ändamål, med begränsade undantag,
  • artificiella intelligenssystem som använder skadliga “subliminala” och manipulerande tekniker.

För företag är den sista kategorin särskilt viktig. Det är därför transparens i driften av system som ger förslag till användare och kunder kommer att vara avgörande för att följa den nya lagstiftningen från Europeiska unionen.

Hög risk

Artificiell intelligens som klassificeras som en hög-risk AI-lösning måste uppfylla strikta krav innan den får komma ut på marknaden. Detta innebär efterlevnadsbedömningar och stränga tester innan den godkänns för användning. Denna riskkategori inkluderar åtta områden, såsom:

  • autonoma fordon,
  • medicinska diagnossystem,
  • prediktiva algoritmer som stöder rättssystemet,
  • hantering av migration och asyl, gränskontroll, samt
  • anställning och arbetskraftshantering.
Begränsad risk

För system med begränsad risk, som oftast används i företag, har lagstiftarna lyckligtvis lagt mycket mindre uppmärksamhet. Denna kategori inkluderar:

  • AI-chattbotar – används för kundservice eller för att svara på vanliga frågor i form av fritt flödande samtal,
  • system för känsligenkänning – används till exempel för att samla in data om kunders åsikter om ett företag,
  • biometriska kategoriseringssystem – såsom att bedöma kön eller ålder på kunder i en fysisk butik,
  • bild-, ljud- eller videogenerering – trots hotet från deep fakes kommer detta område att omfattas av en begränsad uppsättning skyldigheter.
Låg eller minimal risk

Låg-risk AI-lösningar omfattas inte av lagliga regler. AI-lagen kommer endast att nämna att skapare och användare av sådana lösningar bör frivilligt etablera användningspolicyer. Detta gäller lösningar som:

  • innehållsrekommendationssystem i streamingtjänster, eller
  • chattbotar på webbplatser som svarar på typiska kundfrågor.

Vilka krav ställer AI-lagen på lösningar som används av mitt företag?

För att kontrollera om den artificiella intelligens som används av ett företag följer AI-lagen bör du:

  • klassificera den i en av de fyra riskkategorier som beskrivs ovan,
  • om det är AI med hög risk, genomföra en efterlevnadsbedömning,
  • använda god praxis angående låg-risk AI.

Låt oss titta på exempel på ofta använda AI-lösningar av företag. Vilka krav kommer de att behöva uppfylla?

En kundservicechattbot som ger grundläggande information om produkter eller svarar på typiska kundfrågor kommer sannolikt att klassificeras som ett system med minimal risk. Den kommer att behöva:

  • informera användare om att de interagerar med AI,
  • ge möjlighet att bli omdirigerad till en mänsklig konsult,
  • följa allmänna krav angående transparens, icke-diskriminering, etc.

Ett produktrekommendationssystem inom e-handel kommer sannolikt att betraktas som ett system med låg risk. Det kommer att vara nödvändigt att informera kunder om att de får personliga rekommendationer och ge möjlighet att stänga av dem.

Å andra sidan kommer ett system för automatisk medicinsk diagnos att klassificeras som ett hög-risk system. Det kommer att behöva genomgå en rigorös bedömning innan marknadsinträde och övervakas av en människa. Dessutom kommer det att vara nödvändigt att övervaka dess drift och rapportera incidenter.

Det urbana brottsförebyggande systemet kommer också att betraktas som hög-risk. Det kommer att behöva följa regleringar om skydd av privatliv och andra grundläggande rättigheter. Dess drift kommer att behöva vara under konstant mänsklig övervakning.

Det är oklart i vilken kategori AI-baserade beslutsfattande system kommer att falla. Det är troligt att ett AI-baserat rekryteringssystem som fattar anställningsbeslut på egen hand kommer att betraktas som en AI-lösning med oacceptabel risk. Å andra sidan skulle ett rekryteringsstödsystem som hjälper människor att utföra sina jobb betraktas som en hög-risk lösning.

För användarnas välbefinnande, liksom för eventuella förändringar i klassificeringar, är det mycket viktigt att närma sig konstruktionen och användningen av AI-system på ett etiskt och ansvarsfullt sätt från början.

Vilka blir konsekvenserna av att inte följa AI-lagen?

Att inte följa AI-lagen kan leda till betydande böter för företag, som sträcker sig från 35 miljoner euro eller 7 % av den globala omsättningen för stora företag till 7,5 miljoner euro eller 1,5 % för SME:er. Olovliga AI-system kan tas bort från marknaden, och deras användning kan begränsas.

Hur förbereder man sig för att AI-lagen träder i kraft?

Så hur förbereder man ett företag som använder artificiell intelligens för att AI-lagen ska träda i kraft 2025? Här är några tips om hur SME:er och startups kan förbereda sig för detta ögonblick:

  • hålla sig informerad om framstegen i arbetet och tidslinjen för genomförandet av regleringarna,
  • utvärdera AI-system som redan används och anpassa dem till de nya kraven,
  • fästa särskild vikt vid etiska aspekter i designen av AI.

Sammanfattning

Införandet av AI-lagen är en stor förändring för AI-ekosystemet i Europa. Men med tydliga och konsekventa regler lovar den att säkerställa en säker och etisk utveckling av denna teknologi, vilket särskilt bör gynna SME:er och startups.

AI-lagen, som träder i kraft 2025, kommer att medföra betydande förändringar i hur små och medelstora företag (SME:er) kan utnyttja artificiell intelligens. För SME:er innebär detta främst nödvändigheten av noggrant övervägande och analys av de AI-lösningar de använder, både när det gäller efterlevnad av regler och potentiell påverkan på kunder och samhället.

För småföretagare och chefer är det viktigt att förstå hur deras AI-system klassificeras i termer av risk och vilka åtgärder som behövs för att anpassa dem till de kommande regleringarna. Ta till exempel AI-system som används inom kundhantering eller marknadsföring, som tidigare användes ganska fritt. Nu kommer de att kräva en grundlig analys för att säkerställa efterlevnad av AI-lagen. Detta kan skapa nya möjligheter för företag som specialiserar sig på teknisk juridisk rådgivning, vilket ger SME:er stöd i att anpassa sig till dessa nya krav.

Om du gillar vårt innehåll, gå med i vår aktiva gemenskap av busy bees på Facebook, Twitter, LinkedIn, Instagram, YouTube, Pinterest, TikTok.

Robert Whitney

JavaScript-expert och instruktör som coachar IT-avdelningar. Hans huvudmål är att höja teamets produktivitet genom att lära andra hur man effektivt samarbetar medan man kodar.

View all posts →

Robert Whitney

JavaScript-expert och instruktör som coachar IT-avdelningar. Hans huvudmål är att höja teamets produktivitet genom att lära andra hur man effektivt samarbetar medan man kodar.

Share
Published by
Robert Whitney

Recent Posts

AI:s roll i innehållsmoderering | AI i affärer #129

Företag kämpar med att hantera en stor mängd innehåll som publiceras online, från inlägg på…

4 days ago

Sentimentanalys med AI. Hur hjälper det till att driva förändring i företag? | AI i företag #128

I den digitala transformationens era har företag tillgång till en oöverträffad mängd data om sina…

4 days ago

Bästa AI-transkription verktyg. Hur omvandlar man långa inspelningar till koncisa sammanfattningar? | AI i affärer #127

Visste du att du kan få essensen av en flera timmar lång inspelning från ett…

4 days ago

AI-videogenerering. Nya horisonter inom videoinnehållsproduktion för företag | AI i affärer #126

Föreställ dig en värld där ditt företag kan skapa engagerande, personliga videor för alla tillfällen…

4 days ago

LLMOps, eller hur man effektivt hanterar språkmodeller i en organisation | AI i affärer #125

För att fullt ut utnyttja potentialen hos stora språkmodeller (LLM:er) behöver företag implementera en effektiv…

4 days ago

Automation eller förstärkning? Två tillvägagångssätt för AI i ett företag | AI i affärer #124

År 2018 hade Unilever redan påbörjat en medveten resa för att balansera automatisering och förstärkningsförmågor.…

4 days ago