В първата част на този материал се спряхме на някои страни на тъмната страна на т.нар. „изкуствен интелект“. Никак не са малко и безобидни.
Самите наивни и очаровани микро-потребители на системи за изкуствен интелект в много случаи въобще не знаят, а и не се интересуват, какви са точните скрити цели на AI алгоритмите.
Как тяхната чувствителна лична информация се използва за постигане на множество цели от какви ли не корпорации, правителства и технологично-финансови и политически картели?
- Американската верига магазини „Target“, например, постоянно използва изкуствен интелект и техники за поведенчески анализ на огромни масиви данни за клиентите си.
Целта е прогнозира дали жените са бременни, за да започне да им изпраща скрити реклами за бебешки продукти.
- Потребителите на „Uber“се оплакват, че плащат повече за пътувания, ако батерията на смартфона им е ниска. Дори ако официално нивото на батерията на смартфона на потребителя не принадлежи към параметрите, които влияят върху модела на ценообразуване на Uber.
- Големите технологични фирми често са обвинявани в манипулации, свързани с SEO-класирането на резултатите от търсенето в търсачките в тяхна собствена полза.
Решението на Европейската комисия за пазаруването в Google е един от най-популярните примери напоследък.
- Междувременно Facebook получи рекордна глоба от Федералната търговска комисия на САЩ за манипулиране чрез изкуствен интелект на правата за поверителност на своите потребители. Което води до по-ниско качество на услугата.
Една съвсем проста концептуална рамка, разработена в проучване от 2021 г., може да се използва за оценка на поведенческата манипулация, активирана чрез изкуствен интелект.
Проучването се занимава най-вече с т.нар.„основни сфери на човешката уязвимост“ на потребителите. Те се откриват от алгоритъма на изкуствен интелект при анализ на информацията за ползващите една или друга социална платформа/мрежа. На потребителите се изпращат реклами за продукти, които те купуват импулсивно в тези моменти. Това се случва, дори ако продуктите са с лошо качество и не увеличават полезността за самите потребители.
Проучването установява, че тази манипулативна стратегия намалява получените ползи от страна на потребителите, така че при използващата AI платформа да се генерира по-голяма печалба.
А това определено изкривява потреблението, създавайки допълнителна неефективност на потреблението.
Възможността за манипулиране на човешкото поведение с помощта на изкуствен интелект също е наблюдавана в множество психологически експерименти.
Едно проучване на психолози от 2020 г. описва два конкретни експеримента.
Първият се състои от множество тестове, във всеки от които участниците избират между полетата отляво и отдясно на екраните си, за да спечелят измислена валута.
В края на всеки опит участниците се информират дали техният избор е задействал наградата. Системите на изкуствен интелект предварително са били обучени с подходящи данни. Целта била да научат моделите на избор на участниците и да контролират получаването на наградата в една от двете опции във всеки опит и за всеки участник.
Имало обаче едно ограничение – наградата трябвало да бъде давана равен брой пъти на лявата и дясната опция. Целта на системата с изкуствен интелект била да накара участниците да изберат конкретна целева опция (да речем лявата опция). А това, в резултат, гарантира 70% успех при насочването на участниците към целевия избор.
Във втория експеримент участниците са помолени да гледат в екрана на лаптопа си и да натиснат определен бутон, когато им се покаже определен символ.
Съответно да не го натискат, когато им се покаже друг. Системата с изкуствен интелект имала за задача да подреди последователността от символи по точно определен начин, при който по-голям брой участници несъзнателно да правят грешки. За много кратко изкуственият интелект постига увеличение на грешките спрямо случайното подреждане на символите с цели 25%.
Важната констатация от тези експерименти е, че изкуственият интелект се „учи“ от отговорите на участниците и успява да идентифицира прецизно уязвимостта им при вземането на решения.
В крайна сметка, системата с изкуствен интелект се настройва – без те да подозират, – как да насочва манипулативно участниците към определени решения и действия по убедителен начин. Тоест, да манипулира психиката и поведението им, без хората въобще да го осъзнават.
Толкова за т.нар. „тъмна страна“ на т.нар. „изкуствен интелект“. Има и светла! Може би вече се досещате от къде идва на заглавието на този текст?
ЗА АВТОРА
Д-р Пламен Димитров, RODC (международно регистриран консултант по организационно развитие) е психолог, екзистенциален терапевт и организационен консултант с 40-годишен опит в областта на диагностиката и развитието на екипи, лидери и организации. Той осъществява в България и региона интегрираните програми за психологическа подкрепа и грижи за психичното здраве на служителите (EAP, Employee Assistance Programs) на глобалния лидер в тази област – ComPsych.com.
ПРОЧЕТЕТЕ ОЩЕ... Ако сте работили в чужбина, ще признаят ли трудовия ви стаж в България? Кои са новите разпоредби за сигнализирането на нередности в работата? Как да разгърнете потенциала на хората в екипа си?












