Je umelá inteligencia rasistická a zaujatá voči ženám?
Máte vypnuté reklamy
Vďaka financiám z reklamy prinášame kvalitné a objektívne informácie. Povoľte si prosím zobrazovanie reklamy na našom webe. Ďakujeme, že podporujete kvalitnú žurnalistiku.
Zdroj: Freepik.com
Výskumy ukazujú, že AI v zdravotníctve môže dávať horšie rady ženám a ľuďom tmavej pleti. Ako je možné, že „objektívny algoritmus“ preberá predsudky zo sveta ľudí?
Umelá inteligencia mala byť riešením. Bez emócií, bez predsudkov, všetci pacienti sú rovnocenní. Lenže výskumy ukazujú niečo úplne opačné — AI môže diskriminovať. Ženy dostávajú menej dôvery, pacienti tmavej pleti menej empatie, odporúčania sú niekedy postavené skôr na tom, kto si o pomoc pýta, než aký má problém.
Podľa výskumníkov z MIT modely ako GPT-4 alebo Llama 3 častejšie zľahčujú zdravotné sťažnosti žien. Namiesto diagnózy či odporúčania vyšetrenia sa im povie, že „to zvládnu samy“. Podobné výsledky mal aj zdravotnícky model Palmyra-Med.
A nejde len o pohlavie. V predchádzajúcich štúdiách sa ukázala:
-
empatia pre ľudí tmavej pleti o 2–15 percent nižšia
-
empatia voči Ázijčanom o 5–17 percent
oproti reakciám na bielych používateľov
Ďalší výskum publikovaný v The Lancet potvrdil, že GPT-4 vie stereotypizovať rasy, etniká aj pohlavia, keďže sa pri návrhu diagnózy opiera o demografiu — nie o príznaky.
Prečo sa to deje?
Pretože AI sa učí zo sveta, ktorý nie je spravodlivý. Klinické štúdie boli historicky zamerané hlavne na bielych mužov — takže dáta o ženách a menšinách jednoducho chýbajú. AI nerobí predsudky schválne. Ona ich iba preberá z toho, na čom ju trénujeme.
Lenže v zdravotníctve sa omyly nerátajú v percentách, ale v ľuďoch. Technologické firmy sa predbiehajú, kto skôr presadí AI v nemocniciach — tam však nestačí byť skoro dobrý. Tam sa rozhoduje o živote. A každý má právo na rovnako kvalitnú zdravotnú starostlivosť, bez ohľadu na to, ako vyzerá.