С развитието на технологиите, изкуственият интелект (AI) не само променя начина, по който работим, но и моделира по особен механизъм собствената ни представа за света и мястото ни в него.
Светлата визия на сър Артър Кларк за реалност, покорена от ежедневни технологични мини революции, вече не е просто продукт на нашата фантазия, а настояще което изживяваме благодарение на AI.
Сферата на HR мениджмънта не е изключение от тази визия. AI технологиите обещават решение на множество проблеми, касаещи намирането на талант – от оптимизация на процесите до персонализация на подхода към всеки кандидат (Personalisation-at-scale). Все пак, доколко тези обещания са реални?
Аmazon и неговият дискриминационен AI инструмент за подбор
Липсата на инженерен талант не е специфичен проблем само за България. Глобалните корпорации, като Amazon например, се сблъскват с предизвикателство от друго естество обаче – те трябва да анализират стотици, дори хиляди резюмета и профили на кандидати, който се конкурират за една роля.
Логичното решение на тази задача (при липса на армия от HR специалисти) е внедряването на AI инструмент, който автоматично да оценява кандидатите и да прави начален подбор, който да отсее най-добрите инженери за определена позиция. А резултатите и събитията около тази имплементация през последните години ни предоставят важен урок.
През 2014 г. Amazon създават именно такава система, която има за цел да ускори и оптимизира процеса на подбор, особено за техническите им позиции. Въпреки високите заявки и ресурсите, вложени в проекта, резултатите са меко казано разочароващи.
Безпристрастният AI далеч не се оказва такъв
Това разкритие прави REUTERS през 2018 г, след разследване започнало през 2015г по данни на служители на технологичния гигант. Накратко – системата на Amazon демонстрира явни признаци на дискриминация по полова принадлежност, като фаворитизира мъжете пред жените като по-добри кандидати за техническите роли в компанията.
Въпросът обаче остава да виси с пълна сила – откъде произхожда тази дискриминация?
Отговорът се оказва в данните, с които системата е била захранена първоначално. Специфична особеност на AI базираните решения е, че се нуждаят от много голямо количество данни, за да работят сравнително точно.
В сферата на HR такива данни може да са редица метрики или просто сумарно агрегирана информация, към която често реферираме като базата данни от CV-та например, от която моделите да извлекат определени изводи.
Оказва се, че инструментът за подбор на Amazon обработва в обучението си предимно CV-та на мъже, изпратени през годините в тази база данни и така пренебрегва потенциалните кандидати от женски пол. Причината е проста – исторически по-масовото представителство на мъжете в технологичната индустрия, което довежда до множества от данни, свързани с кандидати от мъжки пол – факт, който е забелязан от инструмента на Amazon.
В последствие се появяват и допълнителни характеристики, които затвърждават неоправдано дискриминационното поведене на AI модела.
Тези вградени, да ги наречен условно „предубедености“, може да постепенно стават циклични: решенията, базирани на исторически данни създават обратно връзки, които укрепват и усилват съществуващите „предубедености“. Затворен цикъл, от който AI не може да излезе без човешка намеса, което силно компрометира първоначалния замисъл на системата.
Това събитие подчертава важността на обучението на AI системите и колко критично е да сме наясно с какви данни ги „храним“. Дори най-перфектната на пръв поглед система може да се окаже проблемна, ако първоначалните данни не са добре балансирани и обективни. А дори все още не намесваме и фактора на човешкия субективизъм.