Annons
Annons
Sponsrat innehåll från Qliktech Nordic

Kulhålshistorien och rädslan för AI med oönskat beteende

AI fortsätter att fängsla företag och organisationer med sitt löfte om effektivitet och innovation. Men en av de saker som AI också tydligt möjliggör är oavsiktliga och oönskade resultat. Vi har alla läst nyheterna och hört de skrämmande hoten från potentiella brister inom artificiell intelligens. Om den här tekniken ska nå sin fulla potential måste hanteringen av dessa oönskade resultat ha högsta prioritet.
Facebook
Twitter
LinkedIn
E-post
Öka textstorlek

Oönskat beteende inom AI

Enligt en ny rapport på uppdrag av Qlik, som undersökte över 2 000 brittiska medborgare, har det uppstått en förskjutning i debatten om AI; Från rädslan att förlora sitt arbete, till en ny debatt om människors roll i programmeringen av AI, risken för partiskhet och påverkan samt var ansvaret bör ligga för att lindra detta. Över en tredjedel (41%) av de tillfrågade uppgav att AI i sitt nuvarande tillstånd är partiskt och att de är oroliga för dess inverkan. Det finns emellertid en missuppfattning bland den brittiska allmänheten att den mänskliga analysen eller missuppfattningen av uppgifterna (snarare än själva uppgifterna) kan orsaka en sådan partiskhet. När allt kommer omkring ger data AI näring, vilket inkluderar dess förmåga att lära sig mycket snabbare än människor – och den data som AI-system använder som input kan ha dold partiskhet och påverkan.

Anmäl dig till Qliks AI- och maskininlärningswebbinarium här

Orsaker till dold partiskhet och påverkan

Oönskat resultat orsakas ofta av ofullständiga datamängder, och kanske viktigast av allt, en brist på sammanhang kring dessa datamängder. Till exempel, när vi ställer en fråga som människa, ställer vi den baserad på en hypotes, vilket gör att frågan i sig är partisk från början. Det är därför AI måste ha förmågan att ha kontext "inbyggt" för att kunna analysera all information å människors vägnar och ge mer objektiva resultat.

Elif Tutuk Senior Director på Qlik Research säger:

”Jag skulle vilja ge ett exempel från andra världskriget som visar hur ofullständig data kan skapa felaktiga slutsatser.”

”Under andra världskriget genomförde den ungerska-födda matematikern Abraham Wald en studie med det brittiska Luftfartsministeriet för att använda statistisk analys för att skydda bombplan som flyger över fiendens territorium. Datan inkluderade antal och plats för kulhål på hemkommande flygplan, och målet var att använda denna information för att bestämma var på planet man skulle addera vapen.

Diagram visade att den största skadan inte var på huvudvingen, bakdelen, motorerna eller flygplanskroppen, utan snarare på flygplanets ytterdelar. Baserat på detta föreslog Luftdepartementet att lägga till vapenutrustning i dessa delar.

Men Wald förstod att det var fel. Han sa att mer vapen borde adderas till de ställen på planen som hade minst antal hål eftersom han insåg att datan inte inkluderade de plan som hade gått förlorade. Om de hemkommande planen inte hade några hål på t ex motorerna, är det ett bättre antagande att till och med ett fåtal kulhål på dessa platser var dödliga – ingen skada registrerades i dessa områden eftersom dessa plan var de som kraschade. Wald rekommenderade mer vapenutrustning i de "datafria" områdena.

Lärdomen: data som inte syns kan ha lika stor betydelse som data som syns.”

Fler och fler företag använder AI och maskininlärningsalgoritmer för att fatta beslut. Men att lita på dessa modeller utan att förstå dem helt är riskabelt. Hör mer om ämnet på webbinariet ”Predictive Analytics for Everyone: How AI and Machine Learning Enhance Business Intelligence” den 18 september kl 11.00 genom att anmäla dig här.

Facebook
Twitter
LinkedIn
E-post
Detta innehåll är sponsrat av Qliktech Nordic och ej en artikel från Dagens industri
Vi har förtydligat vår personuppgiftspolicy. Läs mer om hur vi hanterar personuppgifter och cookies