Categories: AI i affärerBlogg

Nya mänskliga — AI-interaktioner. Hur förändrar artificiell intelligens sättet vi använder enheter på? | AI i affärer #22

Hur fungerar intelligenta användargränssnitt (IUIs) vid AI-interaktioner?

Intelligenta användargränssnitt (IUIs) är gränssnitt som använder AI-interaktionstekniker för att förbättra människors upplevelse med enheter. IUIs kan till exempel känna igen en användares tal eller gester, anpassa sig efter preferenser baserat på analys av tidigare AI-interaktioner, eller hjälpa till med att utföra uppgifter. Målet är att skapa ett intuitivt och naturligt sätt att kommunicera med elektroniska enheter, eller naturligt användargränssnitt (NUI). Även om det krävs inlärning för att använda ett sådant gränssnitt, underlättas det i grunden, vilket ger känslan av att allt sker naturligt och att gränssnittet i sig är osynligt.

I dag är pekskärmsgränssnitt de mest använda och röstgränssnitt de mest utvecklade. Lovande framtida utvecklingar inkluderar gestigenkänning i VR och AR, smarta enheter och hjärn-maskin-gränssnitt.

Exempel på IUI-applikationer rör intelligenta röstassistenter som Siri eller Alexa, som förstår frågor som ställs med röst och ger svar eller följer kommandon. Andra exempel är IUIs som använder sensorer för att spåra kroppsrörelser, gester eller blick för att styra enheter. De har:

  • Naturlig språkbehandling (NLP) för att förstå och skapa tal,
  • Bildekänning (datorseende) för att tolka visuella material,
  • Maskininlärning (ML) för att känna igen mönster och förutsäga användarbeteende.

Du kan tillämpa maskininlärning, bland annat, för att tolka hjärnvågor som fångas av smarta hörlurar. Denna lösning har utvecklats av Neurable för att skapa hörlurar som är dedikerade till arbete, som upptäcker fokusmoment och möjliggör exakt bestämning av den optimala tiden och förhållandena som gynnar koncentration. Dessutom, under koncentrationstider, dämpar Neurables hörlurar automatiskt inkommande samtal och låter dig hoppa till nästa låt du lyssnar på med dina tankar.

Källa: Neurable (https://neurable.com/headphones)

Affärsapplikationer av pekskärmsgränssnitt

Pekskärmsgränssnitt är extremt populära på grund av sin mångsidighet. Det är därför affärsvärlden snabbt har rört sig bortom smartphones och hushållsapparaters skärmar. De är alltmer vanliga i biljett- eller snacksautomater, lås och flygplatsportar.

Tryckningar, svepningar, dragningar, långtryckningar – dessa är bara några av de gester som dominerar vår digitala upplevelse. Med dem kan vi både skriva på ett tangentbord som visas på skärmen, trycka på knappar och navigera genom rörelser av en eller flera fingrar, eller till och med hela handen.

Genom att använda AI har pekskärmsenheter blivit mer standard, och kompletterar rörelser som inte känns igen korrekt av enheten. De kombinerar data från pekskärmsgränssnittet med gester som känns igen av kameran, vilket förbättrar användarupplevelsens flyt och osynligt ökar nöjet och säkerheten vid användning av enheterna.

Tredimensionella gester, virtuell verklighet och förstärkt verklighet med AI-interaktioner

Tack vare gestigenkänning opererar vi alltmer med rörelse ensam i beröringsfria AI-interaktioner med dörrar, handfat eller bilskärmar. Automotive gör också sin tillämpning utbredd. BMW introducerade nyligen en gestkontrollfunktion med en beröringsfri skärm för att hantera bilens volym, samtal och andra funktioner.

Det är också värt att notera mjukvaran för beröringsfri drift av enheter som finns på offentliga platser. På marknaden kan du hitta:

  • TouchFree – programmering som möjliggör för företag att uppgradera befintliga Windows-baserade kiosker och pekskärmar till beröringsfri gestkontroll,
  • Banuba – en lösning för gestbaserad drift i rymden, som att välja en produkt genom att peka med ett finger eller lägga till i en kundvagn med en tumme-upp-gester, vilket kommer att vara särskilt praktiskt i butiker med förstärkt verklighetsteknologier, där du kan prova virtuella kläder, till exempel,
  • Källa: Banuba (https://www.banuba.com/solutions/touchless-user-interface)

AI-interaktioner spelar verkligen en nyckelroll i gestkontroll i virtuell verklighet (VR) och förstärkt verklighet (AR). AI-funktioner här för att känna igen kroppens position och tolka rörelser och gester från användare, vilket gör att de kan interagera naturligt med virtuella objekt och miljöer med sina händer eller kontroller. Ett exempel är Oculus Quest 2, VR-glasögon utrustade med kameror som spårar handrörelser för att intuitivt kontrollera objekt i den virtuella världen. VR- och AR-funktioner i affärer för:

  • utbildning och simuleringar, där gestkontroll möjliggör mer naturlig och intuitiv AI-interaktion,
  • manipulering av 3D-modeller under design- och ingenjörsarbete, inklusive i ett team som inte är beläget i ett enda fysiskt utrymme,
  • shopping och e-handelspresentationer – företag använder AR för att skapa interaktiva shoppingupplevelser där kunder kan använda gester för att bläddra bland produkter och information.

Ett av de senaste exemplen på att tillämpa AI-interaktioner för gestkontroll i VR och AR är Apple Vision Pro. Det är en spatial dator som inte har någon hårdvarukontrollmekanism. Istället förlitar sig Vision Pro på ögonspårning och handgester för att låta användare manipulera objekt i det virtuella rummet framför dem.

Källa: Apple (https://www.apple.com/newsroom/2023/06/introducing-apple-vision-pro/)

Apple Vision Pro har gester som tryck, dubbeltryck, nypa och dra, samt tvåhandsgester som zooma och rotera. Dessa gester tillämpas på olika åtgärder, såsom att välja och manipulera objekt, rulla, flytta fönster och justera deras storlek.

Röststyrda enheter och mjukvara – hur använder man dem i sitt företag?

Den växande rollen av artificiell intelligens innebär att fler och fler enheter och applikationer också använder röstanvändargränssnitt (VUI). De har teknologier som konverterar tal till text (STT) och text till tal (TTS).

Röststyrning tillämpas redan mycket i affärer för:

  • Kundservice – kunden kan prata med intelligenta produkt- och marknadsföringsröstbotar, som Inteliwise (Efecte),
  • skapa dokument – till exempel med Google Docs röstinmatning, som låter användare diktera text direkt i ett dokument,
  • genomföra internationella möten – röstgränssnittet möjliggör att översätta ditt tal i realtid med en automatisk översättare, använda Google Translate under Google Meet-samtal, eller använda ett dedikerat verktyg som Verbum.ai.

Källa: Verbum.ai (https://verbum.ai/).

Många människor använder också röststyrning av bilens mjukvara, till exempel för att ställa in en navigationsdestination, och för att styra smarta enheter för att kontrollera kontorsbelysning.

Framtiden för AI-interaktioner, eller hjärn-maskin-gränssnitt

Det ideala sättet för AI-interaktioner med enheter skulle vara naturligt, det vill säga helt osynligt för användaren. Och detta är inte ren fantasi. Det finns redan prototyper av hjärn-maskin-gränssnitt som fungerar med ofattbara hastigheter liknande elektronisk telepati.

Det mest avancerade arbetet med hjärn-dator-gränssnitt, eller hjärn-dator-gränssnitt (BCI) utförs av Neuralink. Detta är ett företag som utvecklar ett gränssnitt kallat “The Link,” som redan är i klinisk testning.

Källa: Neuralink (https://neuralink.com/)

The Link är en myntstor chip som kirurgiskt implanteras under skallen, där den kopplas till tunna trådar som kallas neurontrådar som sträcker sig till olika delar av hjärnan.

Neurontrådar innehåller elektroder som kan registrera och stimulera hjärnaktivitet, vilket gör att neuronala signaler kan avkodas och kodas och skicka information till och från en dator eller mobil enhet.

The Link implanteras av en neurokirurgisk robot och möjliggör sedan kontroll av en app som låter användaren manipulera ett tangentbord och mus med sina tankar.

Sådana framåtblickande lösningar väcker dock lika många förhoppningar som bekymmer. Å ena sidan kommer man enkelt kunna tänka: “Jag vill posta en notis på sociala medier om ett företagsevenemang med ett porträttfoto av VD:n taget under mötets öppnande.” Å andra sidan – hur säkerställer vi att anslutningen inte avlyssnar våra privata tankar?

Om du gillar vårt innehåll, gå med i vår aktiva bi-gemenskap på Facebook, Twitter, LinkedIn, Instagram, YouTube, Pinterest.

Robert Whitney

JavaScript-expert och instruktör som coachar IT-avdelningar. Hans huvudmål är att höja teamets produktivitet genom att lära andra hur man effektivt samarbetar medan man kodar.

View all posts →

Robert Whitney

JavaScript-expert och instruktör som coachar IT-avdelningar. Hans huvudmål är att höja teamets produktivitet genom att lära andra hur man effektivt samarbetar medan man kodar.

Share
Published by
Robert Whitney

Recent Posts

AI:s roll i innehållsmoderering | AI i affärer #129

Företag kämpar med att hantera en stor mängd innehåll som publiceras online, från inlägg på…

4 days ago

Sentimentanalys med AI. Hur hjälper det till att driva förändring i företag? | AI i företag #128

I den digitala transformationens era har företag tillgång till en oöverträffad mängd data om sina…

4 days ago

Bästa AI-transkription verktyg. Hur omvandlar man långa inspelningar till koncisa sammanfattningar? | AI i affärer #127

Visste du att du kan få essensen av en flera timmar lång inspelning från ett…

4 days ago

AI-videogenerering. Nya horisonter inom videoinnehållsproduktion för företag | AI i affärer #126

Föreställ dig en värld där ditt företag kan skapa engagerande, personliga videor för alla tillfällen…

4 days ago

LLMOps, eller hur man effektivt hanterar språkmodeller i en organisation | AI i affärer #125

För att fullt ut utnyttja potentialen hos stora språkmodeller (LLM:er) behöver företag implementera en effektiv…

4 days ago

Automation eller förstärkning? Två tillvägagångssätt för AI i ett företag | AI i affärer #124

År 2018 hade Unilever redan påbörjat en medveten resa för att balansera automatisering och förstärkningsförmågor.…

4 days ago