szerző:
hvg.hu
Tetszett a cikk?

A Cornell Egyetem kutatása rávilágít, hogy a beszélt nyelv dialektusa befolyásolhatja azt, hogy miként érzékelik a mesterséges intelligencia algoritmusai az egyéneket. Ez pedig azután befolyásolja a jellemükkel, foglalkoztathatóságukkal és a potenciális bűnözéssel kapcsolatos előítéleteket.

Egyelőre még értékelésre vár egy, az arXiv-en publikált tanulmány, amelynek készítése során amerikai kutatók azt vizsgálták, miként párosítanak a nagy nyelvi modellek (LLM) munkaköröket és embereket az alapján, hogy az illető szövege afroamerikai nyelvhasználókra jellemző angol vagy tisztán amerikai angol volt-e.

A kísérletekben 12 platformot vizsgáltak, olyan nagy nyelvi modellekre összpontosítva, mint az OpenAI ChatGPT és GPT-4, a Meta LLaMA2 és a francia Mistral 7B. Ezek az LLM-ek mély tanulási algoritmusok, amelyeket emberszerű szövegek értelmezésére és létrehozására terveztek.

Már a munkakörválasztásnál tetten értek egyfajta rejtett faji elfogultságot: az afroamerikai angolt beszélőket kevesebb munkakörhöz társították, ráadásul olyan munkákat választottak számukra, amelyekhez nem szükséges különösebb végzettség.

Ami még ennél is drámaibb: amikor a kutatók arról is faggatták a mesterségesintelligencia-modelleket, hogy felmentenének vagy elítélnénk egy meghatározatlan bűncselekménnyel vádolt személyt, gyakrabban ítélték el azokat, akik afroamerikai angolt beszéltek. És még itt nem ért véget a kísérlet. Megkérdezték a modelleket, hogy halálra ítélnének-e valakit, aki gyilkosságot követett el. A kérdés eldöntéséhez a modellek csupán egy pluszinformációt kaptak: az illető által használt dialektusról tájékoztatták. Ebben az esetben is bebizonyosodott, hogy a mesterséges intelligencia nagyobb arányban sújtotta (volna) halálbüntetéssel az afroamerikai angolt beszélőket.

Tegyük be egy kalapba a nőket, az iskolákat, az orvosokat és a programozókat – mi áll össze?

2024. A Las Vegasban megrendezett re:Invent konferencián adott betekintést a közeljövő alakulására vonatkozó előrejelzéseibe Werner Vogels, az Amazon alelnöke és technológia vezetője.

A nagy nyelvi modellek nem voltak nyíltan rasszisták, az afroamerikaiakat például sok pozitív tulajdonsággal társították. A kutatók szerint „ezek a nyelvi modellek megtanulták leplezni a rasszizmusukat”. A rejtett előítéletek nagyobbak voltak az emberi visszajelzéssel kiképzett LLM-ekben, a nyílt és burkolt rasszizmus közötti eltérés az OpenAI GPT-3.5 és GPT-4 modelljénél volt a leghangsúlyosabb.

A szerzők szerint a mostani eredmények felvetik annak a lehetőségét, hogy az afroamerikaiaknak a jövőben nagyobb károkat okozhatnak a mesterséges intelligencia előítéletei. Emiatt sürgősen figyelmet kell fordítani a nagy nyelvi modelleket használó mesterséges intelligencia-rendszerekben jelen lévő torzításokra, különösen az olyan területeken, mint az üzleti élet és a joghatóság, ahol egyre gyakrabban vetnek be ilyen rendszereket.

Ha máskor is tudni szeretne hasonló dolgokról, lájkolja a HVG Tech rovatának Facebook-oldalát.