Последниве месеци можеби ќе се запишат во историјата како моментот кога предиктивната вештачка интелигенција започна масовно да се користи. Предвидувачки алгоритми се користат веќе со децении, но објавувањето на апликации како што е ChatGPT3 на OpenAI – и неговата брза интеграција со пребарувачот Bing на Мајкрософт – на некој начин беа почеток на поплавата од вештачка интелигенција што е лесна за користење.
За неколку недели од објавувањето на ChatGPT3, тој веќе доби 100 милиони месечни корисници, од кои многумина несомнено веќе ја искусиле неговата мрачна страна – од навреди и закани до дезинформации и покажана способност за пишување злонамерни кодови.
Чет-ботовите што станаа главната тема на разговор се само врвот на сантата. Вештачката интелигенција што создава текст, говор, уметност и видеа напредува брзо, со далекусежни последици за властите, трговијата и граѓанскиот живот. Не е ни чудно што во овој сектор има сериозен наплив на капитал, односно и владите и компаниите инвестираат во стартапи за развој и примена на најновите алатки за машинско учење. Овие нови апликации ќе комбинираат историски податоци со машинско учење, обработка на природен јазик и длабоко учење за да ја одредат веројатноста за идни настани.
Од клучно значење е што усвојувањето на новата обработка на природниот јазик и генеративната вештачка интелигенција нема да биде ограничена само на богатите земји и компании како Google, Meta и Microsoft кои го предводеа нивното создавање. Овие технологии веќе се шират низ средини со низок и среден приход, каде што предиктивната аналитика за сè, од намалување на урбаната нееднаквост до справување со безбедноста на храната, делува многу надежно за сиромашните влади, фирми и невладини организации, кои сакаат да ја подобрат ефикасноста и да добијат социјални и економски придобивки.
Меѓутоа, проблемот е во тоа што не се посвети доволно внимание на потенцијалните негативни екстерни аспекти и несакани последици од овие технологии. Најочигледниот ризик е дека алатките за предвидување, што се моќни како никогаш досега, ќе ги зајакнат капацитетите за следење и надзор на авторитарните режими.
Еден често споменуван пример е кинескиот „социјален кредитен систем“, во кој се користат информации за задолженост, кривични пресуди, однесувањето онлајн и други податоци, со помош на кои се дава оценка на секој човек во земјата. Тие резултати потоа можат да одредат дали некој може да земе кредит, да учи во добро училиште, да патува со железница или авион итн. Иако системот на Кина се смета за алатка за подобрување на транспарентноста, неговата паралелна улога е инструмент за општествена контрола.
Сепак, дури и кога навидум добронамерни демократски влади, компании фокусирани на општествено влијание и прогресивни непрофитни организации ги користат алатките за предвидување, резултатите што можат да се добијат не секогаш се оптимални. Грешките во дизајнот на основните алгоритми и необјективните сетови на податоци може да доведат до нарушување на приватноста и дискриминација врз основа на идентитет.
Ова веќе стана очигледен проблем во кривично-правниот систем, каде што предвидувачките аналитички алатки редовно ги актуелизираат и одржуваат расните и социо-економските разлики. На пример, еден систем базиран на вештачка интелигенција, направен за да им помогне на американските судии да ја проценат веројатноста за рецидивизам, погрешно утврдил дека афроамериканците кои се обвинети се изложени на многу поголем ризик повторно да сторат кривично дело или прекршок отколку белците.
Расте и загриженоста за тоа како вештачката интелигенција би можела да ги продлабочи нееднаквостите на работното место. Досега, алгоритмите за предвидување ја зголемуваа ефикасноста и профитот на начини кои им користат на управителите и акционерите на сметка на обичните работници (особено на пазари на трудот каде што договорите на дело и хонорарните ангажмани се почести од договори за вработување на неопределено време).
Во сите овие примери, системите за вештачка интелигенција се како искривено огледало на општеството, што ги одразува и ги зголемува нашите предрасуди и нееднаквости. Како што технолошкиот истражувач Нанџира Самбули забележа, дигитализацијата има тенденција да ги влошува, наместо да ги подобрува веќе постоечките политички, социјални и економски проблеми.
Ентузијазмот за користење на алатките за предвидување мора да има и контратежа во информираното и етичкото разгледување на нивните намерни и ненамерни ефекти. Онаму каде што ефектите од моќните алгоритми се спорни или непознати, според начелото на претпазливост, тие не би требало да се применуваат.
Не смееме да дозволиме вештачката интелигенција да стане уште една област каде оние кои се на одлучувачки позиции ќе бараат прошка наместо дозвола. Затоа Високиот комесар за човекови права на Обединетите нации и други повикаа на мораториуми за усвојувањето системи за вештачка интелигенција, сè додека не се ажурираат етичките рамки и рамките за човековите права така што ќе се земат предвид потенцијалната штета од нив.
За да се создадат соодветни рамки, ќе биде потребен консензус за основните принципи кои треба да бидат земени предвид при дизајнирањето и употребата на алатките за предиктивна вештачка интелигенција. За среќа, трката за вештачка интелигенција доведе до паралелен бран на истражувања, иницијативи, институти и мрежи за етика. И додека граѓанското општество го презеде водството, се вклучија и меѓувладините субјекти како што се ОЕЦД и УНЕСКО.
ООН работи на градење универзални стандарди за етичка вештачка интелигенција уште од 2021 година, ако не и порано. Покрај тоа, Европската Унија предложи Закон за вештачка интелигенција – прв таков напор на голем регулатор – со кој ќе се спречат одредени намени (како оние што наликуваат на социјалниот кредитен систем на Кина), а покрај ова и други високоризични апликации ќе подлежат на посебни барања и надзор.
До денес, оваа дебата во најголема мера беше концентрирана во Северна Америка и Западна Европа. Меѓутоа, земјите со пониски и средни приходи имаат свои основни потреби, грижи и социјални нееднаквости што треба да ги решат. Има многу истражувања кои покажуваат дека технологиите развиени од и за пазарите во напредните економии се често несоодветни за помалку развиените економии.
Ако новите алатки за вештачка интелигенција едноставно се увезат и се стават во широка примена пред да се воспостават потребните структури за управување, тие лесно би можеле да направат повеќе штета отколку корист. Сите овие прашања мора да се разгледаат ако сакаме да осмислиме навистина универзални принципи за управување со вештачката интелигенција.
Препознавајќи ги овие празнини, Институтот Игарапе и „Нова Америка“ неодамна формираа нова Глобална работна група за предвидувачки аналитички алатки за безбедност и развој. Во работната група ќе има застапници за дигиталните права, партнери од јавниот сектор, технолошки претприемачи и социјални научници од Америка, Африка, Азија и Европа, со цел да се дефинираат првите принципи за употреба на предвидувачки технологии во јавната безбедност и одржливиот развој на земјите од третиот свет.
Формулирањето на овие принципи и стандарди е само првиот чекор. Поголем предизвик ќе биде организирањето на меѓународната, националната и внатре-националната соработка и координација потребни за нивно спроведување во законот и практиката. Во глобалното брзање да се развијат и применат нови алатки за предвидување на вештачката интелигенција, рамките за спречување штети се од суштинско значење за да се обезбеди сигурна, просперитетна, одржлива иднина што е насочена кон човекот.
*Роберт Муга, ко-основач на институтот Игарапе и Групацијата SecDev, е член на Советот за глобална иднина за градовите на утрешницата на Светскиот економски форум и советник за Извештајот за глобални ризици.
Габриела Сеилер е консултант во институтот Игарапе и партнер и директор на Kunumi.
Гордон Лафорџ е виш политички аналитичар во New America и предавач на Факултетот за глобален менаџмент Thunderbird на Државниот универзитет во Аризона.
**Авторски права: Project Syndicate, 2023. www.project-syndicate.org
***Блогот е објавен во рамки на Иницијативата за дигитално граѓанство ResPublica и е преземен од www.respublica.edu.mk. Оригиналната објава можете да ја прочитате ТУКА.