AI har snabbt blivit en integrerad del av arbetslivet och vardagen, men den senaste tiden har vi sett flera exempel där tekniken inte riktigt lever upp till förväntningarna. Bakslag och misstag sätter ljuset på frågor om ansvar, trovärdighet och hur vi bör förhålla oss till generativ AI – både i privat och professionell användning.
När AI-systemen klantar sig – verkliga exempel
Ett uppmärksammat exempel under veckan handlar om McDonald’s i USA, som valt att dra tillbaka sitt röststyrda AI-baserade beställningssystem från över 100 restauranger. Samarbetet med IBM syftade till att effektivisera beställningar via drive-thru, men resultatet blev en rad misslyckanden. På sociala medier delades klipp där systemet gjort oväntade och felaktiga tolkningar, såsom att lägga till mer smör istället för att ta bort en smak, beställa tusentals kronor i chicken nuggets, eller till och med servera glass toppad med bacon.
Liknande missöden har rapporterats från andra håll. En VD för ett CRM-bolag berättade om hur deras generativa AI-funktion för dokumentation och tekniska lösningar ibland fyllde i egna, påhittade funktioner i svaren. Resultatet blev att användare fick instruktioner om API-funktioner som överhuvudtaget inte existerade – ett stort problem som snabbt undergrävde förtroendet.
Det finns även exempel från bilbranschen där en amerikansk Ford- eller Chevy-återförsäljare implementerade en AI-chatbot. Istället för att hjälpa till att sälja märkesbilar, rekommenderade chatboten kunder att köpa en Tesla – direkt på återförsäljarens egen sajt.
Kan man lita på generativ AI?
Alla dessa exempel väcker den eviga frågan: Går det att lita på generativ AI – och i så fall, när och hur mycket? Svaret är inte svart eller vitt. Det krävs alltid ett kritiskt förhållningssätt till AI-genererade svar. I många fall är det dessutom svårt för användaren att veta om det är en AI som svarar eller inte, vilket försvårar möjligheten att avgöra hur kritisk man bör vara.
Även när det är tydligt att man interagerar med en AI, som i verktyg likt ChatGPT eller Copilot, är det lätt att glömma bort varningsrader om att informationen kan vara felaktig eller bristfällig. Det är mänskligt att lita på ett övertygande och snabbt svar, särskilt om det presenteras självsäkert.
Vem bär ansvaret när AI gör fel?
Frågan om ansvar blir särskilt aktuell när AI används i situationer där misstag kan få konsekvenser – allt från en felaktig matbeställning till felaktiga finansiella beslut. Vem ska stå för kostnaden när något går snett? Kan ett företag hävda att kunden själv bär ansvaret, bara för att det fanns en liten disclaimer om AI-användning? Eller är det företaget som måste ta notan?
Det går inte att förvänta sig att varje användare – kanske en stressad småbarnsfamilj vid McDonald’s drive-thru – ska läsa på om AI och förstå riskerna i stunden. När AI används mot kunder, särskilt i avgörande situationer, krävs extra eftertanke och ansvar från leverantörens sida.
När är AI-mjukvara redo för verkligheten?
Det är lockande för företag att lansera nya AI-funktioner snabbt och samla in feedback från verkliga användare. Men frågan är om detta verkligen är lämpligt när AI-systemen påverkar beslut eller hanterar kundinteraktioner. Det måste finnas en högre ribba för kvalitet och tillförlitlighet innan AI släpps ut mot kund – annars riskerar man både förtroende och varumärke.
AI-fel som nyhetsstoff – och risk för bakslag
I dagens medielandskap är AI en klickmagnet. Sätter man AI i rubriken får nyheten större genomslag – särskilt om det handlar om ett spektakulärt misslyckande. Situationen kan jämföras med rapporteringen kring elbilar: när en elbil brinner blir det riksnyhet, medan en brinnande bensinbil knappt nämns i lokalpressen. AI-fel kommer att fortsätta vara medialt intressanta, vilket riskerar att skapa en överdriven uppfattning om teknikens brister.
Det finns en risk att denna uppmärksamhet leder till ett ökat motstånd mot AI, vilket kan göra att organisationer blir rädda att testa nya lösningar – och därmed hamnar på efterkälken när teknikutvecklingen rusar vidare.
Balansgången: Testa och kalibrera, men våga gå framåt
Det gäller att hitta balansen: AI-lösningar måste testas och utvärderas noggrant, särskilt när de påverkar kunder och viktiga beslut. Samtidigt får rädslan för misstag inte bromsa innovationen helt. Framgångsrika företag och organisationer kommer vara de som vågar experimentera och dra lärdom av misstagen, men gör det under kontrollerade former och med tydliga ansvarslinjer.
Sommaren – en tid för AI-frågor och smarta tips
Sist men inte minst: Sommaren är en tid då många får frågor om AI från vänner och familj. Ett smart tips är att visa hur man ställer frågor direkt till AI-verktyg som ChatGPT eller Copilot, och samtidigt informera om vilka typer av information som är lämpliga att dela – ur ett säkerhetsperspektiv. På så vis kan alla lära sig mer om tekniken, och du själv får några extra minuter i hängmattan.
Det finns till och med en funktion i vissa AI-verktyg där du kan dela hela konversationen, så att andra kan fortsätta ställa egna frågor – precis som den gamla tjänsten ”Let me Google that for you”, fast för AI.
Denna blogg baseras på podden 7 minuter AI. >>Lyssna på podden. Och läs gärna om våra AI-tjänster.