Дронови претворени во оружје, лажни видеа кои го манипулираат јавното мислење и автоматизирано хакирање се само три од заканите од вештачката интелигенција доколку се најдат во погрешни раце, предупредуваат експертите.
Извештајот за малициозно користење на вештачката интелигенција предупредува дека вештачката интелигенција е „зрела“ за експлоатирање од државите под диктатура, криминалците и терористите. Оние кои ги дизајнираат системите на вештачка интелигенција мораат да внимаваат повеќе на евентуалните злоупотреби на нивната технологија, наведуваат авторите на извештајот, додека властите мораат да разгледаат нови законски рамки.
Извештајот меѓу останатото повикува и на:
- Соработка на властите и законодавците со технолошките научници за подобро разбирање и подготовка од злоупотреби на вештачката интелигенција.
- Сфаќање дека и покрај многу позитивни аспекти на вештачката интелигенција, таа технологија има двојна употребна вредност и научниците и инженерите мораат да размислуваат проактивно за потенцијални злоупотреби.
- Најдобри практики кои можат и требаат да се научат од дисциплините со двојна употребна вредност со подолга историја, како компјутерската безбедност.
- Активно проширување на опсегот на вклучени страни кои работат на превенирање и пресретнување на ризиците поврзани со злоупотреба на вештачка интелигенција.
Зборувајќи за ББЦ, Шахар Авин од Центарот за студии на егзистенцијални ризици на Универзитетот во Кембриџ, објаснува дека извештајот се концентрира на областите од вештачката интелигенција кои се достапни во сегашноста или најверојатно ќе бидат достапни во следните пет години, наместо да гледаат многу далеку во иднината.
Особено загрижувачка е новата област на засилено учење – каде вештачката интелигенција се тренира на надчовечки нивоа без човечки примери или надзор.
Авин посочил некои од сценаријата каде вештачката интелигенција може да „застрани“ во догледна иднина.
- Технологиите како „АлфаГо“, вештачка интелигенција развиена од Гугл, која може да ги надигра луѓето во играта „Го“ – која може да се користи од хакери за наоѓање шеми во податоци и нови начини за пристап до програмерски кодови.
- Злонамерните луѓе можат да купат дрон и да го истренираат преку софтвер за препознавање лица за таргетирање на одредени индивидуи.
- Ботови можат да се автоматизираат за „лажни“ видеа кои изгледаат реално за политичка манипулација.
- Хакери можат да користат вештачки говор за имитирање личности.
„Вештачката интелигенција ќе го измени полето на ризик за граѓаните, организациите и државите – дали на начин што криминалци ќе тренираат машини за хакирање или имитирање на човечки однесувања или преку набљудување кое ќе навлегува во приватноста и ќе претставува репресија – целиот опсег на можности е огромен“, вели Мајлс Брундаж, истражувач од Институтот за иднината на човештвото на Универзитетот во Оксфорд.
„Често се случува системите на вештачка интелигенција не само да бидат на нивото на човековите можности, туку и значително да ги надминат. Тоа е загрижувачки, но е потребно за да се сфатат последиците од супер-човечкото хакирање, набљудување, убедување и идентификување на физички таргети, како и можностите на вештачката интелигенција кои се пониски од човековите но се многу поисплатливи од човечкиот труд“, додава Брундаж.
Извештајот кој има 100 страни идентификува три посебни полиња во кои најверојатно би се извршила злоупотреба на вештачката интелигенција – дигиталното, физичкото и политичкото.