I takt med att generativa artificiella intelligenser blir allt mer framträdande i vårt samhälle, har forskare börjat utforska hur dessa teknologier påverkar mänskligt beteende och beslutsfattande. En ny studie publicerad på SSRN av Daniela Hernandez och Omar Fayaz från Cornell SC Johnson School of Enterprise, tillsammans med flera oberoende forskare, belyser AI chatbotars roll i detta sammanhang.
Studien undersöker i vilken utsträckning AI chatbots kan erbjuda en ”ytterliggångspunkt” jämfört med människor. Begreppet ”ytterliggångspunkt” syftar på förmågan att se utanför ens egna erfarenheter och undvika beslutsgymnastik som kan uppstå när man fokuserar för mycket på egna upplevelser.
Forskarna fann att AI chatbots har en ”inre syn” på vissa uppgifter, vilket innebär att de kan falla provide för sammanbindningsfel, överförtroende och bekräftelsebias. Samtidigt kan AI komplementera människor genom att erbjuda en ”ytterliggångspunkt” i uppgifter som involverar övervägande av basfrekvenser, okänslighet för tillgänglighetsbias och kognitiv reflektion.
Policyimplikationer
Studien diskuterar också policyimplikationer av dessa resultat. Forskarna betonar vikten av att öka AI-litteracitet bland beslutsfattare, identifiera användningsfall där människa och AI kan samarbeta effektivt, balansera processer där antingen människa eller AI är i loopet, samt införa kontinuerliga övervakningsprocesser för att säkerställa ansvarsfull användning av AI.
De som som använder AI-chattbotar bör vara medvetna om sin beslutsdynamik för att minska riskerna för övertro och bekräftelsefördomar, samtidigt som de utnyttjar sina styrkor när det gäller att överväga basfrekvenser och mildra fördomar som härrör från mänskliga begränsningar.
Att förstå AI:s beslutsfattande förmåga, begränsningar och potential att komplettera mänskliga processer är avgörande eftersom AI fortsätter att genomsyra olika aspekter av samhället.
Studien : Do AI Chatbots Present an Exterior View?