Етичка рамка за вештачката интелигенција во медиумите

Се чита за 6 мин.

„Фајненшл тајмс“ е последниот од низа големи медиуми што неодамна склучи договор за соработка со „ОпенАИ“, компанија што стои зад Четџипити (ЧетГПТ).

Со договорот Четџипити ќе може, кога одговара на прашања на корисниците, да влече информации од текстовите во весникот, во реално време. Тие ќе бидат означени и проследени со линк до сторијата од која се земени. Договорот, исто така, на „ОпенАИ“ му овозможува пристап и до премиум платената содржина како и до архивата на ФТ, која ќе служи за обука на основните модели на Четџипити.

Сè уште не е јасно како ќе изгледаат линковите што водат до весникот. „ОпенАИ“ веќе подолго време бара начин како да ги наведува изворите од каде ги добива информациите.

Со ова „Фајненшл тајмс“ се приклучи на растечкиот список на големи редакции што склучиле  договор за користење на нивната содржина од страна на „ОпенАИ“ какви што се: агенцијата „Асошиејтед прес“, германската групација „Алекс Спрингер“, францускиот „Ле Монд“, шпанскиот издавач на „Ел Паис“ и други.

tam t2 4

Овој тип партнерство претставува пресвртница во односот на медиумите и вештачката интелигенција (ВИ), кој досега беше под сенката на прашањето за почитувањето на авторските права.

Големиот „Њујорк тајмс“ и неколку помали публикации годинава ја тужеа „ОпенАИ“ за кршење авторски права со тврдење дека нивни текстови биле користени за „тренирање“ на Четџипити, без побарана дозвола или каква и да е компензација.

Но, авторските права се само еден од проблемите што произлегуваат од ширењето на новата технологија. Нејзиниот „влез“ во професија чијшто интегритет почива на почитувањето на етичките начела, какво што е новинарството, подразбира сериозна внимателност и претходна подготовка.

Недостатоците на ВИ какви што се точност и пристрасност, се прашања на кои редакциите во светот, особено оние што ја користат или планираат да ја користат, не можат да си дозволат да немаат одговор. Тој одговор веќе се формулира и поединечно, а и на глобално ниво.

„Халуцинациите“ и пристрасноста на ВИ

Според студијата на „Асошиејтед прес“, три четвртини од луѓето што работат во медиумската индустрија користеле генеративна вештачка интелигенција (ВИ) во одреден професионален капацитет.

Најчеста употреба била за производство на содржина, при што речиси 70 отсто, или две третини од испитаниците, изјавиле дека ја користеле за оваа намена. Следни најпопуларни употреби се за собирање информации, производство на мултимедијална содржина и други деловни задачи.

Меѓутоа искуството со ВИ во редакциите, според истата студија, покажа дека етичките импликации од употребата предизвикуваат загриженост, и тоа особено поради: потребата од човечки надзор и ризиците од неточна или од пристрасна содржина.

Позната е слабоста на чет-ботовите при собирањето информации да „измислуваат“ податоци и да ги прикажуваат како факти.

Оваа појава доведе до тоа еден адвокат од Њујорк да даде поднесок во суд, во кој беа наведени 6 пресуди што никогаш не се случиле, туку биле измислени од Четџипити што го користел.  Радиоводител ја тужи за навреда компанијата „ОпенАИ“ откако Четџипити генерирал тврдења дека тој проневерувал пари. Новинарот Крис Моран откри дека ВИ може да креира мошне уверливи, но сосема лажни текстови.  

tam t2 5

Покрај „халуцинирањето“, како што се нарекува фабрикувањето податоци и нивно прикажување како факти од страна на ВИ, искуството покажува дека овие системи немаат емпатија, не можат да контекстуализираат и не смеат да се остават без надзор да креираат новинарска содржина.

Анегдотски пример за неможноста на ВИ да се остави без надзор е ситуацијата кога вештачката интелигенција што произведува спортски вести требало да јави за смртта на кошаркар на НБА, кој починал на 42 години.

Насловот што ВИ го креирала гласи:

Брендон Хантер неупотреблив на 42

Како голем проблем што мора да биде земен предвид кога се користи ВИ, на кој упатуваат експертите, е пристрасноста што самата технологија може да ја произведе или да ја користи при процесирањето на податоците.

Проблемот е што пристрасноста, за која нема место во ниту една професионална новинарска содржина, е иманентна особина на ВИ и за неа се говори како за „алгоритамска пристрасност“.

Имено, содржината креирана од ВИ зависи од природата на податоците, од кои машината „учи“. Кога компјутерските научници велат дека апликациите за вештачка интелигенција „учат“, тие воопшто не мислат на учење во човечка смисла.

Вештачката интелигенција учи од големи збирки на податоци преку кои таа создава статистички обрасци. Во основа, вештачката интелигенција учи како подобро и побргу да ги решава проблемите, бидејќи може да предвиди што треба да се случи врз основа на податоците што ги поседува.

Сепак, резултатот од ова е дека машината пропушта многу нијанси на човечката интелигенција и комуникација – на пример, веројатно нема да може да открие сарказам, иронија или говор со преносна смисла.

Дополнително, вештачката интелигенција е создадена од луѓе, и потоа „тренирана“ од луѓе, а луѓето се пристрасни и со предрасуди. Значи, ако базата од кои машината зема податоци е пристрасна, или ако луѓето што го учат системот како да ги презентира и да ги користи тие податоци се пристрасни или полни со предрасуди, ВИ ќе произведе содржина со предрасуди.

Студија што во 2022 година ја спроведе Информацискиот научен институт на Универзитетот во јужна Калифорнија покажа дека повеќе од една третина од податоците што ги користела ВИ биле пристрасни. Жените биле прикажувани во негативно светло, муслиманите биле поистоветувани со „терористи“ и слично.

Поради тоа, особено внимание е посветено на овој проблем, меѓутоа резултатите понекогаш одат од една крајност во друга. Па така, на пример,  системот на ВИ „Гемини“ на Гугл создаваше илустрации на кои повеќето ликови се црни, дури и ако тоа е географски или историски невозможно.

Алгоритамската пристрасност е тема на многу студии и истражувања, но и нешто на што редакциите што користат или планираат да користат алатки на ВИ, мора да обрнат особено внимание.

Етички кодекси и декларации

Во ноември 2023 година, Репортери без граници (РСФ), заедно со 16 партнерски организации, ја објавија Париската повелба за вештачка интелигенција и новинарство. Неа ја состави комисија со која претседаваше новинарката и добитничка на Нобеловата награда за мир, Марија Реса, а во која учествуваа претставници на граѓанското општество, медиуми, новинари и експерти за ВИ.

tam t2 1

Повелбата ги дефинира етиката и начелата што новинарите, редакциите и медиумските куќи низ светот треба да ги применат во својата работа со вештачката интелигенција.

Клучните начела врз кои почива, можат да се сумираат на следниов начин:

  • Етиката мора да има клучна улога кога во медиумите се прават технолошки избори.
  • Човекот мора да ја задржи својата централна улога во уредувачките одлуки.
  • Медиумите мора да му помогнат на општеството да прави разлика меѓу автентичната и генерираната содржина.
  • Медиумите мора да учествуваат во глобалното управување со ВИ и да ја бранат одржливоста на новинарството кога преговараат со технолошките компании.

Во меѓувреме, медиумите што користат ВИ веќе формализираат свои декларации/правилници, во кои опишуваат за што ќе ја користат, а за што не. Меѓу нив се Гардијан, Би-би-си, Ал Џезира и Вашингтон пост.

За сите е карактеристично инсистирањето да бидат сочувани новинарските стандарди и вредности, како и ставот дека професионалните и етичките начела мора да бидат адресирани во дизајнирањето на протоколот за користење на ВИ во редакциите.

Еден од темелните предуслови за употреба на ВИ во редакциите е нејзините вработени да вршат постојан и активен надзор врз работата на паметните програми.

Речиси кај сите акцентот е на тоа дека ниту една содржина генерирана од ВИ нема да биде објавена без човечки надзор.

„Гардијан“, на пример, вели дека употребата на генеративна вештачка интелигенција бара човечки надзор, наведувајќи во нивните упатства дека таа треба да биде поврзана со „специфична придобивка и експлицитна дозвола од уредник“.

Холандската новинска агенција АНП има слични ставови во своите насоки, кои ја нагласуваат важноста од човечки надзор, наведувајќи дека тие можат да користат вештачка интелигенција или слични системи за „поддршка под услов човекот потоа да ја изврши последната проверка“. Тие го опишуваат овој процес како човек>машина>човек.

Бразилската агенција Нуклео, исто така, наведува дека никогаш нема да објави сторија со помош на ВИ без надзор на човек, ниту, пак, ќе ја користат ВИ како уредник или како продуцент.

Рингиер, медиумска групација од Швајцарија со новински брендови во 19 земји, вели дека „резултатите генерирани од алатките за вештачка интелигенција, секогаш треба да бидат критички прегледани, а информациите треба да се проверат и да се дополнат со користење сопствена процена и експертиза“.

Слично, германската агенција ДПА смета дека конечната одлука за употреба на вештачката интелигенција ја носи човекот. Тие додаваат: „Ја почитуваме човечката автономија и приматот на човечките одлуки“.

tam t2 2

Фајненшл тајмс“ тврди дека нивното новинарство ќе продолжи да биде „пишувано, известувано и уредувано од луѓе што се најдобри во своето поле на дејствување“.

Во декларациите за употреба на ВИ, кај голем број медиуми се нагласува и важноста на транспарентноста при нејзината употреба, односно јасно да биде наведено кога евентуално се користи содржина генерирана од ВИ.

Имено, транспарентноста за медиумската заедница, како и за самата индустрија на вести, е клучна вредност. Таа е предуслов за одговорно работење, оружје за борба против губењето на кредибилитетот и довербата.

Во таа смисла, во голем дел од декларациите за користење на ВИ во медиумите, се нагласува и начелото на преземање одговорност на медиумот, во случај на грешка или погрешно информирање.

Декларациите ја нагласуваат и важноста за почитување и заштитата на приватноста. Со други зборови, медиумите се обврзуваат да ги штитат личните податоци и приватноста на корисниците, како и да ги применат сите безбедносни стандарди за да се спречи можноста од евентуална злоупотреба.

Се разбира, со оглед на тоа што фер и објективно известување се едни од клучните професионални стандарди, тоа се нагласува и во правилата за користење ВИ.

Тоа подразбира етичко информирање, интегритет, борба против манипулации и лажни вести.

Автор: Тамара Чаусидис


Текстот е подготвен во рамки на проектот „Fostering Improved Media Standards”, што го координира Мрежата за професионализација на медиумите во Југоисточна Европа (СЕЕНПМ), чија што членка е МИМ. Проектот е поддржан од „National Endowment for Democracy“ (НЕД).

Мислењата и ставовите изнесени во текстовите се на авторите и не секогаш ги рефлектираат позициите и ставовите на МИМ.