Тъй нареченият „изкуствен интелект“, както всяко сътворено от човека оръдие на труда, възникнало в научно-техническото ни развитие като хора, не е опасен сам по себе си. Но наистина опасни могат да са тези хора и организации, които го притежават и използват в своя частна изгода, а не стриктно в социална и хуманна полза.
Преди да изясним въпроса как т.нар. „изкуствен интелект“ може да помогне на HR–те да се фокусират отново върху хората, ще обърнем внимание на опасностите при употребата му.
Коя е „тъмната страна“ на изкуствения интелект?
„Тъмната страна“ на изкуствения интелект може да се използва точно както всяка друга технологична система:
- за манипулиране на психиката, на човешкото поведение;
- за манипулиране на отношенията помежду ни на групово, организационно, социално и международно ниво.
Нищо ново под слънцето, нали?! Тук е мястото да си припомним необходимите условия за справяне със споменатите вече потенциални опасности:
- прозрачност на собствеността и използването на системите и алгоритмите, които наричаме „изкуствен интелект“;
- правната рамка в защита на обществения интерес и фундаменталните човешки права;
- правилата и практиките на регулаторите;
- широката обществена осведоменост.
А тези опасности и на този етап от развитието ни, са вече твърде сериозни.
Не е никак преувеличено да се каже, че популярни интернет платформи с лоялни потребители, като Google и Facebook/Meta, познават отдавна своите потребители по-добре от техните семейства и приятели, а и от тях самите.
В момента огромен брой фирми събират огромно количество данни. Те служат като вход за техните алгоритми, наричани „изкуствен интелект“.
Харесванията във Facebook, например, могат да се използват за прогнозиране с висока степен на точност на различни характеристики на потребителите на Facebook:
- сексуална ориентация;
- етническа принадлежност;
- религиозни и политически възгледи;
- личностни черти;
- интелигентност;
- щастие;
- употреба на пристрастяващи вещества;
- раздяла на родителите;
- възраст;
- джендър.
Проучвания по въпроса – колкото искате.
Виждаме как патентованите алгоритми на изкуствения интелект могат да ви определят чрез използването на нещо толкова просто като бутона „харесвам“. Тогава си представете каква информация се извлича от ключови думи за търсене, онлайн кликвания, публикации и рецензии. Дори и от базите данни за всичко, което правите в работата си.
Всичко това е огромен проблем, който се простира далеч отвъд стратегиите на цифровите гиганти и някои правителства за дигитален контрол.
Предоставяйки на цялостните и генеративни AI алгоритми на централна роля в все по-дигитализирания личен, групов, организационен и социален живот на хората носи реални рискове. Например, използването на AI на работното място може да донесе ползи за производителността на фирмата. Но също така може да бъде свързано с по-ниско качество на работните места за работниците.
Алгоритмичното вземане на решения може да включва крайни дехуманизирани уклони и пристрастия
Те могат да доведат до дискриминация (напр. при решения за наемане, достъп до банкови заеми, здравеопазване, жилища и други области). Списъкът е много дълъг.
Една потенциална заплаха от изкуствен интелект по отношение на манипулирането на човешкото поведение, например, досега е пренебрегвана и недостатъчно проучена.
Манипулативните маркетингови (в бизнеса) и пропагандни (в политиката) стратегии съществуват от дълго време. Въпреки това, тези стратегии в комбинация със събирането на огромни количества данни за ИИ алгоритмични системи далеч разшириха възможностите на фирмите и политическите играчи. Те вече могат да направят всичко, за да накарат потребителите и/или гражданите да направят избор. Дори могат да реализират поведения, които им гарантират по-висока доходност или изборни резултати.
Дигиталните корпорации могат да оформят за „нула време“ рамката и да контролират времето на своите бизнес оферти.
Те и сега могат да се насочат:
- към потребителите на вашите продукти и услуги;
- към най-ценните ви мениджъри и служители, на несъзнавано дори от тях самите индивидуално ниво.
Основната им цел е с манипулативни стратегии да ги привлекат за свои нужди и цели. Съществуват стратегии и техники, които са много по-ефективни и трудни за откриване, ако са генерирани с помощта на изкуствен интелект от базите данни, събрани в психологическите и неврологичните изследвания.
Манипулациите не са хрумване на изкуствен интелект, той е слуга на опасни господари много често.
Манипулацците с използването на изкуствен интелект могат да приемат безкрайно много при това лесни за прикриване форми:
- използване на човешките, субективни уклони, вкусове и пристрастия, открити от ИИ алгоритми;
- персонализирани пристрастяващи ви стратегии за потребление на (онлайн) стоки;
- възползване от емоционалното състояние на индивиди, групи и общности за популяризиране на продукти и услуги, нови работодатели или дори политически партии, които съвпадат добре с техните временни афекти и преживявания.
Манипулацията с помощта на изкуствен интелект често идва заедно с все по-смарт тактики за:
- проектиране;
- маркетинг;
- хищническа реклама;
- вербуване и кражба на кадри;
- повсеместната и всеобхватна поведенческа модификация с цел ценова дискриминация. Целта е да насочат потребителите към по-лош избор, който лесно може да бъде осребрен от фирмите, които използват по-добре алгоритмите и големите данни, наричани изкуствен интелект.
Основната обща характеристика на тези стратегии е, че те намаляват (икономическата) стойност, която потребителят може да извлече от онлайн услугите. Така увеличават рентабилността на фирмите, които имат и използват все по-добри системи, скрити зад благозвучното, някак очовечено и технологично върхово изкуствен интелект.
Липсата на прозрачност и честност спомага за бизнес успеха на тези манипулации, подпомагани, инициирани и редовно прилагани от социално безотговорни собственици на изкуствен интелект.
ЗА АВТОРА
Д-р Пламен Димитров, RODC (международно регистриран консултант по организационно развитие) е психолог, екзистенциален терапевт и организационен консултант с 40-годишен опит в областта на диагностиката и развитието на екипи, лидери и организации. Той осъществява в България и региона интегрираните програми за психологическа подкрепа и грижи за психичното здраве на служителите (EAP, Employee Assistance Programs) на глобалния лидер в тази област – ComPsych.com.
ПРОЧЕТЕТЕ ОЩЕ... Как HR мениджърите да дефинират причината за съкращение и с кои закони трябва да се съобразят? (Втора част) Как HR мениджърите да дефинират причината за съкращение и с кои закони трябва да се съобразят? (Първа част) Как да подготвим компанията си за ефективна работа с поколение Z като част от екипите ни?












