Влијанието на алгоритмите врз комуникацијата

sdz 8 1

Онлајн платформите како нови регулатори

Слободните медиуми и нивното регулирање од државата се два клучни фактори како се одвива јавната комуникација во едно општество. Со развојот на интернетот и новите технологии за комуницирање, овој двоец добива дополнителен член, кој станува важен фактор како комуницира јавноста. На сцена стапија нови чинители што обликуваат како се обработуваат, објавуваат, циркулираат и филтрираат информациите. Станува збор за големите онлајн сервиси, платформи, пребарувачи и други т.н. „онлајн гиганти“. 

Секако, државите сè уште ја носат главната одговорност во делот на обврските за почитување, заштита и примена на човековите права во комуницирањето. Денес интернет-посредниците и онлајн платформите сè повеќе влијаат врз остварувањето на овие права. На интернет се креира еден нов поредок, кој ги менува традиционалните правила и протоколи за комуницирањето.

Во денешниот дигитален свет слободата на изразување и јавното мислење сè повеќе се менаџира и се регулира во приватни и во „хибридни јавни простори“, кои се формирани и овозможени од приватни компании. Овие нови медиумски системи на интернет создадоа и нови форми на управување со комуникацијата, кои ги надгледуваат и ги водат нивни вработени или, пак, алгоритми и слични компјутерски програми за масовна обработка на податоци, кои тие ги креирале.

Новите приватно контролирани платформи ова управување го прават примарно според своите интереси и процени, главно нетранспарентно и надвор од јавен увид, најчесто преку автоматизирано одлучување и без гаранција за усогласеноста на ваквите постапки со меѓународната рамка за човекови права и слободи.

Улогата на алгоритмите на новите платформи

Еден од најчестите предлози за разрешување на овие предизвици е зголемена регулација. Сепак, регулирањето на онлајн платформите, особено во делот на нивната употреба на вештачката интелигенција (AI), како што е тоа случај со алгоритмите, е вистински предизвик. На пример, алатките за вештачка интелигенција често се користат да препознаат нелегални содржини на интернет. Меѓутоа, сериозни проблеми се појавуваат кога оваа технологија се користи за следење на комуникацијата на луѓето, на пример, во социјалните медиуми, под оправдување на безбедноста, на пример. Во ваквите ситуации многу е лесно да се активираат овие автоматизирани опции за следење, со што се отвора сериозен простор за можни злоупотреби. Со тоа директно се загрозени слободата на говорот, како и личната или групната анонимност. Под удар на автоматизираното следење на комуникациите, најчесто се новинарите и независните медиуми, бидејќи политичките центри на моќ мошне лесно можат „легално“ да ги покријат своите незаконски употреби на следењето на онлајн комуникациите. 

Исто така, можноста за безбедно учество во онлајн комуникациите е критично важна за маргинализираните групи во нивната комуникација и формирање свои групи и заедници со цел да добијат поширока поддршка во општеството и да оневозможат дискриминирање.

Иако вештачката интелигенција и алгоритмите се наоѓаат во развиен стадиум, сепак тие се далеку од непогрешливост. Кога се користат онлајн алатките со вештачка интелигенција за модерирање на содржините на интернет и на социјалните мрежи, често недостасува соодветно објаснување на одлуките и јасна оправданост. Во практиката, корисниците многу често не знаат зошто е донесена автоматизирана одлука со која некоја содржина им е отстранета или им е блокиран пристапот кон платформата.

sdz 8 2

Фото: unsplash.com

Модерирањето на содржините со помош на алгоритми вклучува низа техники какви што се напредна статистика и компјутерски методи за сортирање податоци, кои се мошне различни според својата сложеност и ефикасност. Тие имаат за цел да детектираат, да маркираат, да групираат, да предвидат или да класификуваат содржини врз основа на општи или поединечни особености на содржините.

Алгоритмите на социјалните медиуми се вид сортирање на објавите на корисниците врз основа на релевантност, наместо според нивното време за објавување. Со ова социјалните мрежи даваат приоритет на тоа која содржина корисникот прво ја гледа на својот профил, т.е. содржините се редат според веројатноста дека корисникот навистина сака да ја види токму таа објава на своите онлајн контакти. Пред ваквата употреба на алгоритмите, корисниците може да ги следат објавите на своите контакти само во обратно хронолошка низа (од најновите кон постарите објави).

Алгоритмите и другите автоматизирани програмски алатки се распоредени од платформите да вршат и препознавање на различни видови содржини какви што се тероризам, насилство во визуелна форма, говор на омраза, нелегална голотија, злоупотреба на деца и откривање спам-содржини. Вообичаено, при користењето на алгоритмите се користат два типа методи: анализа на текст и анализа на визуелни содржини. Кога алгоритмите ќе препознаат одредена содржина од недозволен тип, тие извршуваат два типа операции: (а) маркирање на содржината, или (б) отстранување на содржината. Маркираните содржини вообичаено ги проверува лице кое е задолжено за проверка и за конечна одлука дали содржината ќе биде отстранета или не. 

Една од честите процедури во користењето на алгоритмите е нивната отвореност за „учење“, односно подобрување и усвојување дополнителни правила за препознавање и за извршување автоматизирани операции. Можеме да кажеме дека алгоритмите се системи со „машинско учење“ (machine-learning systems, англ.) кои користат сложени програмски алатки како што е „natural language processing“ (NLP). Најпознат пример за НЛП-алатка е „Google/Jigsaw’s Perspective API“, алатка со отворен код што им овозможува на операторите на веб-страници, истражувачи и други заинтересирани да ги користат нивните модели за машинско учење за да ја проценат штетноста или „токсичноста“ на некоја објава или коментар, на даден јазик. Автоматското откривање и препознавање фотографии и видеа, честопати се програмирани да детектираат содржини што претходно биле идентификувани како нелегални и во корелација со нив да откријат нови содржини што би можеле да припаѓаат во истата категорија.

По терористичкиот напад во Крајстчрч во Нов Зеланд во 2019 година, Мајкрософт, Фејсбук, Гугл и Твитер го основаа „Глобалниот интернет-форум за борба против тероризмот“ (GIFCT), како дел од нивната заложба за подобрување на усогласеноста на онлајн компаниите со Кодексот на ЕУ за борба против нелегалниот говор на омраза на интернет. Во рамките на GIFCT, овие компании ги разменуваат искуствата од своите алгоритамски алатки за модерирање на содржините.

Кои се недостатоците во користењето на алгоритмите?

Како што и беше напомнато, функционирањето на алгоритмите е далеку од безгрешно. Честопати се случува да ни е блокиран пристапот кон нашиот профил на некоја социјална мрежа само поради погрешна автоматизирана операција. Во делот на масовна обработка на податоци, на пример, се случуваат грешки каде што поради структурата на базата на податоци што алгоритмите ги користат, се добиваат погрешни резултати. На пример, ако во базата за користење се внесат изразено расистички визуелни податоци (фотографии и видеа), тогаш и резултатите добиени од алгоритмите ќе бидат „расистички“. Чест проблем со алгоритмите е и нивното постојано менување, што особено ги нервира и ги тормози стручњаците за онлајн маркетинг, кои мора постојано да ги менуваат правилата и методите во своето работење. Една од постојните теории на заговор е дека алгоритмите на некои од социјалните мрежи „кријат“ одредени содржини на брендовите за да ги принудат да платат спонзорирани објави.

sdz 8 3

Фото: unsplash.com

Во комуникациска смисла, еден од најголемите проблеми на користењето на алгоритмите, секако, не се само грешките во маркирањето или бришењето содржини, туку и нивната решавачка одлука во одредувањето т.н. reach, или досег на објавите на социјалните мрежи. Според своите зададени параметри, тие одредуваат на колку корисници ќе им биде прикажана одредена порака на нивните низи („newsfeed“ или „timeline“). Проблемот во ова оперирање е што алгоритмите немаат способност за семантичко препознавање на содржините кое може да антиципира дали станува збор за некоја штетна порака или какви ќе бидат реакциите на неа.

Корисниците можат по пат на експериментирање и пробување да насетат како функционираат алгоритмите на одредена платформа и да ги насамарат. Еден од таквите „трикови“ што беше експлоатиран е објавување платени пораки што таргетираат одредени групи корисници според групна припадност (расна, верска, етничка, сексуална и сл.) со токсични пораки или со нетолерантни содржини. Гугл мораше често да интервенира кога на нивниот сервис Гугл мапс одредени расистички поими внесени во делот за пребарување, со помош на алгоритмите, прикажуваа постојни географски локации. Сервисот на Гугл за препознавање и пребарување фотографии, исто така имаше проблеми со маркирање лица со одредена боја на кожата како одредени животински видови.

Некои од проблемите што се појавуваат при користењето на алгоритмите се навистина дури и засрамувачки за компаниите и за организациите што ги користат, но сепак треба да ни биде јасно дека во постојните услови нивното користење е неповратно, а веројатно и понатаму ќе се проширува. Враќање на состојбата пред нивното користење не е реална опција, особено со постојаниот пораст на корисниците на најголемите онлајн платформи и пораст на објавуваните содржини на нив.

Свесноста и интересот за едукација за тоа како алгоритмите влијаат врз нашето комуницирање, не треба да биде ограничено само на маркетиншките стручњаци. Потребно е критички да ѝ приоѓаме на оваа тема и редовно да ги следиме промените во употребата на алгоритмите, со цел подобро да го менаџираме своето корисничко искуство на интернет, но и да се заштитиме од последиците на грешките во работата на алгоритмите, кои, се чини, ќе продолжат да се случуваат во догледно време.

Автор: Сеад Џигал

Насловна фотографија: unsplash.com

----------------------------------------------------------------------------------------------------------------------------------------------------------------------

Текстот е подготвен во  рамки на проектот „Building Resilient Journalism in the Western Balkans”, што го координира Мрежата за професионализација на медиумите во Југоисточна Европа (СЕЕНПМ), чија што членка е МИМ. Проектот е поддржан од „National Endowment for Democracy“ (НЕД).