2019. augusztus 18., vasárnap

MÁR A MESTERSÉGES INTELLIGENCIA IS ELŐÍTÉLETES, ÉS EZ AZ EMBER HIBÁJA

QUBIT
Szerző: KABOS ESZTER
2019.08.16.


Az ember által létrehozott mesterséges intelligencia előítéletes, amit igazán nem várnánk egy teljesen racionális programtól. Csak pár példa: az arcfelismerő szoftverek nehezebben ismerik fel a fekete bőrű emberek arcát, mint a fehérekét. Ha két évvel ezelőtt kezekről kerestünk képet a Google keresőjén, nagyrészt fehér kezek jelentek meg. Az Amazon saját részre írt humánerőforrás-segítő programja diszkriminálta az álláshirdetésre jelentkező nőket a férfiakkal szemben. 

A fenti példák esetében a programozók a felfedezésük után korrigálták a hibákat, de vajon miért előítéletes a mesterséges intelligencia, hogyan lehet változtatni ezen, és miért nehéz elérni, hogy a számítógép mindenkit egyenlő bánásmódban részesítsen?
Honnan ered a gépi balítélet?

A mesterséges intelligencia, ahogyan ma használják, nagyrészt mélytanuló algoritmusokra épül. Ez azt jelenti, hogy az algoritmus egy létező nagy adathalmazban fedez fel hasonlóságokat és összefüggéseket, majd ezeket alkalmazza az újonnan bejövő adatok (például a fenti példában a kamera előtt megjelenő arc vagy a beküldött állásjelentkezés) megítélésére.

Négy szinten meghatározható, hogy miért válik előítéletessé a mesterséges intelligencia. A legegyértelműbb probléma, ha az algoritmust előítéletes adatokon tanították. Ez a helyzet például, ha a gép azért nem ismeri fel a feketék arcát, mert csak fehér embereket mutattak neki korábban. Eggyel összetettebb probléma, ha a jelenlegi világot jól leképező adatokon tanítják az algoritmust, az mégis diszkriminatív lesz. Ha egy tudós képét akarjuk megtalálni, és ehhez tanításképp az elmúlt évszázadokból jelentős tudósokat mutatunk az algoritmusnak, akkor az kevésbé fogja valószínűnek ítélni egy nőről, hogy a tudományban ért el eredményeket, pusztán azért, mert a történelmi diszkrimináció következtében az általa ismert tudósok kis százaléka nő.

Ha nemkívánatossá váltak a múltbeli nemi, bőrszínbeli, vagyoni helyzetre alapozott arányok a szakmákban, akkor a mesterséges intelligencia tanításánál manipulálni kell a történelmileg hiteles adatokat, hogy a hagyományosan alulreprezantált csoportok a részarányukhoz képest felülreprezentálódjanak.

A harmadik szintű probléma, ha a programozó a cél meghatározásában előítéletesen jár el. Ha például azt kell meghatározni, hogy ki lesz megbízható adós vagy jó munkaerő, akkor a programozó a saját, akár látens előítéleteit akaratlanul is beépítheti az általa írt kódba – ezt a jelenséget nevezik algoritmikus előítéletnek. Végül pedig hasonló gépi előítéletet okozhat, ha a programozó az adatok betáplálása után kiválasztja azokat a változókat, amiket az algoritmus figyelembe vehet. Például az állásinterjúnál ilyen lehet a jelentkező neme, végzettsége, korábbi munkatapasztalatának hossza, de akár a családi állapota vagy a gyerekei száma is...

Nincsenek megjegyzések:

Megjegyzés küldése

Megjegyzés: Megjegyzéseket csak a blog tagjai írhatnak a blogba.