Вы тут

Чым небяспечны штучны інтэлект?


Свет мае патрэбу ў міжнароднай арганізацыі па тыпе Міжнароднага агенцтва па атамнай энергіі (МАГАТЭ), якая займалася б пытаннямі рэгулявання і бяспекі штучнага інтэлекту (ШІ). З такім сцвярджэннем выступіў заснавальнік і генеральны дырэктар амерыканскай кампаніі OpenAІ, якая распрацавала чат-бот са штучным інтэлектам ChatGPT, Сэм Альтман, паведаміла ТАСС. «Варта абдумваць загадзя шляхі выкарыстання і меры бяспекі [для такіх праграм], перш чым ствараць супер-ШІ», — сказаў Альтман падчас выступлення па відэасувязі на сусветным урадавым саміце ў Дубаі. Гендырэктар тэхналагічнай кампаніі заклікаў урады краін свету «перайсці ад абмеркаванняў да дзеянняў» па пытанні рэгулявання штучнага інтэлекту. «Я думаю, што нам трэба зрабіць эксперыментальную платформу па ўкараненні мер кантролю над ШІ, дзе людзі будуць вывучаць, як працуе гэтая тэхналогія, каб зразумець, як эфектыўна яе рэгуляваць», — растлумачыў Альтман. Якія апасенні выклікае штучны інтэлект?


Выпрабаванне для 4 мільярдаў чалавек

Прарывы ў галіне штучнага інтэлекту абяцаюць беспрэцэдэнтныя магчымасці, але таксама і эканамічныя, палітычныя і сацыяльныя ўзрушэнні. Эксперты амерыканскага аналітычнага цэнтра Councіl on Foreіgn Relatіons (CFR) апублікавалі даклад, у якім гаворыцца, што міжнароднае распаўсюджванне ШІ можа змяніць глабальны баланс сіл з «патэнцыяльна драматычнымі геапалітычнымі наступствамі», паведаміў actualcomment.ru. Сусветны валавы ўнутраны прадукт будзе павялічвацца на  7 трыльёнаў штогод на працягу наступнага дзесяцігоддзя з развіццём штучнага інтэлекту. Старшы навуковы супрацоўнік CFR Себасцьян Малабі сцвярджае, што ШІ ўжо перасягнуў інтэлект чалавечага ўзроўню ў некаторых задачах. Напрыклад, у 2020 годзе DeepMіnd выкарыстоўвала штучны інтэлект для вырашэння праблемы згортвання бялку, якая да таго часу лічылася адной з самых складаных і нявырашаных біялагічных загадак.

ШІ можа ўзмацніць пагрозу дэзынфармацыі і прапаганды. Генератыўныя інструменты штучнага інтэлекту спрашчаюць стварэнне дыпфэйкаў, і гэтая тэхналогія ўжо прымяняецца ў выбарчых кампаніях па ўсім свеце. Эксперты таксама адзначаюць магчымасць таго, што зламыснікі могуць выкарыстоўваць ШІ для ўдасканаленых спроб фішынгу, адаптаваных да інтарэсаў ахвяры.

Выбаршчыкі 77 краін свету сёлета сутыкнуцца з дэзынфармацыяй з выкарыстаннем штучнага інтэлекту, піша ліванскае выданне Asas Medіa. Інструменты ШІ даступныя кожнаму, дазваляюць ствараць фэйкавы кантэнт, фальшывыя галасы, фота, відэа і маніпуляваць паводзінамі людзей, адзначае аўтар артыкула. 2024-ы лічыцца годам выбараў, паколькі нацыянальныя выбарчыя кампаніі пройдуць у трэці краін свету. Яны закрануць каля 4,1 мільярда чалавек — больш за палову насельніцтва зямнога шара. 38 краін сёлета абіраюць сваіх прэзідэнтаў, 39 дзяржаў будуць галасаваць на парламенцкіх выбарах у заканадаўчыя органы. Гэта насамрэч беспрэцэдэнтная лічба, заўважае Asas Medіa. Выбары пройдуць у неспакойным геапалітычным і эканамічным кантэксце. У дадатак да ўсяго гэтага назіральнікі лічаць найбольш істотнай пагрозай дэзынфармацыю і маніпуляцыі, звязаныя з бумам штучнага інтэлекту.

На праблему звярнула ўвагу газета The Guardіan. «Банальная антыўтопія, у якой маніпулятыўны кантэнт настолькі танны і настолькі просты ў масавай вытворчасці, што становіцца паўсюдным: гэта палітычная будучыня, пра якую непакояцца лічбавыя эксперты ў эпоху генератыўнага штучнага інтэлекту», — піша выданне. Апытаныя The Guardіan спецыялісты папярэджваюць, што дзякуючы дасягненням у галіне штучнага інтэлекту можна будзе ўзяць на ўзбраенне тактыку дэзынфармацыі мінулага і ўдыхнуць у яе новае жыццё.

Пра тое, што ШІ-тэхналогіі могуць паўплываць на зыход прэзідэнцкіх выбараў у ЗША, яшчэ раней казаў амерыканскі бізнесмен Ілан Маск у інтэрв’ю тэлеканалу Fox News. «Нават калі вы кажаце, што ў штучнага інтэлекту няма свабоды дзеянняў, вельмі верагодна, што людзі будуць выкарыстоўваць яго ў якасці інструмента на выбарах. Я думаю, што рэчы становяцца дзіўнымі, і яны становяцца дзіўнымі хутка», — перакананы бізнесмен. На яго думку, без дзяржаўнага рэгулявання штучны інтэлект можа стаць «небяспекай для грамадства».

Нейрасеткі ўжо ўвайшлі ў палітычную сутычку, адзначае ТАСС. 

У мэтах прасоўвання сваёй перадвыбарнай кампаніі сучасныя тэхналогіі ў ЗША выкарыстоўвала Рэспубліканская партыя. Яна размясціла на YouTube відэа, створанае штучным інтэлектам, якое паказвае антыўтапічную версію будучыні, калі кіраўніком дзяржавы будзе пераабраны Джо Байдэн. На кадрах дэмакраты святкуюць перамогу на вечарынцы, пасля чаго ідзе серыя ўяўных сюжэтаў аб развіцці міжнародных і ўнутраных крызісаў, якія, паводле рэкламы, рушаць услед за перамогай Байдэна ў 2024 годзе. Па словах прадстаўніка Нацыянальнага камітэта Рэспубліканскай партыі (НКРП), на якога спасылаецца Axіos, НКРП упершыню выпусціў відэа, на 100 працэнтаў створанае штучным інтэлектам.

За пару клікаў

Інструменты штучнага інтэлекту, раней даступныя толькі даследчым колам, інжынерам або распрацоўшчыкам, цяпер у адкрытым доступе, часта бясплатна. Папулярызацыя генератыўных інструментаў, такіх як ChatGPT або Mіdjourney, спрасціла стварэнне і распаўсюджванне вельмі рэалістычнага кантэнту, фальшывых галасоў, фатаграфій і відэа пад назвай «дыпфэйкі» (deepfakes), якія ствараюцца літаральна за некалькі секунд. Лічыцца, што першыя дыпфэйкі з’явіліся яшчэ ў 2017 годзе. Тады карыстальнік Reddіt з нікам Deepfakes апублікаваў фальшывыя ролікі з удзелам аголеных зорак, што выклікала вялікі рэзананс у Сетцы. З тых часоў тэхналогія развівалася, станавілася больш даступнай, і людзі ўсё часцей пачалі апасацца яе.

У мінулым годзе здарыўся выбух папулярнасці дыпфэйкаў у сувязі з бумам цікавасці да штучнага інтэлекту. Летась у маі Reuters cа спасылкай на кампанію ў галіне ШІ DeepMedіa паведаміў, што ў параўнанні з аналагічным перыядам 2022-га колькасць відэафэйкаў узрасла ўтрая, аўдыяфэйкаў — у восем разоў. А, паводле справаздачы AІ Іndex Report 2023, за апошнія 10 гадоў колькасць этычных парушэнняў, звязаных з ШІ, вырасла ў 26 разоў. Калі раней доступ да тэхналогіі быў у абмежаванай колькасці людзей, то цяпер просценькі дыпфэйк можа зрабіць практычна кожны за пару клікаў.

Згенераваныя нейрасеткамі падробленыя відэаролікі, на якіх людзі кажуць тое, чаго ніколі не казалі, ці робяць тое, чаго ніколі не рабілі, уяўляюць сабой пагрозу ў ЗША і за мяжой. Пра гэта старшыня камітэта Палаты прадстаўнікоў па разведцы, дэмакрат Адам Шыф казаў яшчэ ў 2019 годзе, перадаваў The Hollywood Reporter. Толькі за апошні год створаныя нейрасеткамі фэйкі ўжо справакавалі некалькі скандалаў. Самым бяскрыўдным можна лічыць фэйкавае фота Папы Рымскага ў сонцаахоўных акулярах, стыльным белым пухавіку і з вялікім крыжом па-над ім, якое з’явілася на партале Reddіt. Пазней стала вядома, што фота згенеравала нейрасетка Mіdjourney, але да моманту з’яўлення гэтай інфармацыі многія паспелі паверыць у сапраўднасць фота. «Я вырашыла, што пухавік Папы сапраўдны, ні на секунду не задумаўшыся. Я не выжыву ў свеце тэхналогій будучыні», — напісала ў сацсетцы X (раней Twіtter) мадэль і тэлевядучая Крысі Тэйген.

Але былі і больш трывожныя гісторыі з фэйкамі, у якія таксама многія паверылі. У маі ў сеціве распаўсюдзілася фота высокага цёмна-шэрага слупа дыму побач з будынкам Пентагона і паведамленне аб тым, што там адбыўся выбух. Прычым, як звяртае ўвагу CNN, выяву апублікавалі некалькі верыфікаваных уліковых запісаў у X. У ваенным ведамстве адразу ж абверглі інфармацыю аб інцыдэнце. Тым не менш, паводле даных CNN, такая навіна паспела прывесці да кароткачасовага падзення фондавага рынку.

«Жахліва рэалістычнымі» The US Sun назваў створаныя нейрасеткай фота арышту экс-прэзідэнта ЗША Дональда Трампа. На іх відаць, як паліцэйскія ловяць палітыка, які ўцякае, а пасля цягнуць яго з будынка, у той час як былы кіраўнік дзяржавы, мяркуючы па выглядзе, абураецца тым, што адбываецца. Фэйкавыя фота разляцеліся па ўсім свеце. Як піша таблоід, літаральна за пару дзён выявы прагледзелі больш за 4,8 мільёна разоў, яны атрымалі тысячы рэтвітаў. Калі праўда выявілася, карыстальнікі пачалі прапаноўваць якой-небудзь выявай абмежаваць распаўсюджванне падобных фэйкаў ці прынамсі ставіць на іх вадзяныя знакі.

Чуткі ператвараюцца ў рэальнасць

Трамп не адзіная ахвяра нейрасетак. Падобная тэхналогія ўжо выкарыстоўвалася для стварэння дыпфэйкаў аб знакамітасцях і іншых публічных асобах. Такія інструменты для стварэння рэалістычных малюнкаў «вельмі карысныя для падману публікі», сказаў The Daіly Beast даследчык Гарвардскага ўніверсітэта Джоан Данован. «Мы сведкі новай формы «папераджальнай дэзынфармацыі», калі чуткі ператвараюцца ў рэальнасць праз стварэнне медыяпрадуктаў, што асвятляюць падзеі, якіх ніколі не было», — заўважыў эксперт.

Брытанскі часопіс Economіst таксама адзначае, што «гіперрэалістычныя дыпфэйкі могуць паўплываць на выбаршчыкаў яшчэ да таго, як фальшывыя аўдыя, фатаграфіі і відэа будуць выкрыты». Cітуацыя c выкарыстаннем штучнага інтэлекту ў палітыцы сур’ёзна турбуе нават тых, хто ствараў праграмы ШІ. «Хоць тэхналогія можа і не мець відавочнай палітычнай мэты, яна з’яўляецца формай улады. І ад самых ранніх інструментаў да сённяшняга свету сацыяльных сетак і генератыўнага штучнага інтэлекту гэта мае сур’ёзныя сацыяльныя і палітычныя наступствы, — папярэджвае ў артыкуле, апублікаваным на сайце Yahoo Fіnance, адзін са стваральнікаў праграмы Deep Mіnd Мустафа Сулейман. — Я апасаюся, што ШІ падарве інфармацыйную прастору з дапамогай дыпфэйкаў і мэтанакіраванай адаптыўнай дэзынфармацыі, якая зможа эмацыянальна маніпуляваць і пераконваць нават вопытных выбаршчыкаў і спажыўцоў. Што адбудзецца, калі ў кожнага будзе магчымасць ствараць і трансліраваць матэрыялы з неверагодным узроўнем рэалізму?» — запытвае інжынер. Ён папярэджвае, што тэхналогія штучнага інтэлекту павінна быць пастаўлена пад кантроль як мага хутчэй, каб не нанесці шкоду грамадству. Эксперт заклікае забараніць выкарыстанне розных чат-ботаў, заснаваных на тэхналогіі ШІ, якія ўводзяць выбаршчыка ў зман.

Жывое слова супраць дэзынфармацыі

Прэзідэнт Беларусі Аляксандр Лукашэнка раіць змагацца з фэйкамі і дэзынфармацыяй жывым словам і актыўнай грамадскай работай. Аб гэтым ён заявіў на сустрэчы з членамі Рэспубліканскага савета рэктараў устаноў вышэйшай адукацыі. «Інтэрнэт — гэта яшчэ семачкі ці кветачкі. Штучны інтэлект — як мы будзем заўтра змагацца супраць гэтага?» — паставіў пытанне беларускі лідар.

На сустрэчы Ірына Кітурка, рэктар Гродзенскага дзяржаўнага ўніверсітэта імя Янкі Купалы, выступіла на тэму ролі вышэйшай школы ў выхаванні асобы і грамадзяніна. Яна ў тым ліку гаварыла аб важнасці дыялогавых пляцовак, прамой работы з моладдзю.

«Правільна вы сказалі — дыялогавыя пляцоўкі. Жывое слова. Да людзей трэба ісці. У нас кіруемая краіна, мы можам дастукацца да кожнага, — адзначыў кіраўнік дзяржавы. — У гэтае поле пераходзіць барацьба. Там і палітыка, і фінансы. Усё будзе там. Таму нам трэба рыхтавацца тут працаваць».

«Трэба акунуць моладзь у жывую работу. Жывое слова — узяў, павёў, і яны будуць тады верыць табе. Інтэрнэт і вялікае станоўчае мае значэнне. Гэтая велізарная дапамога. Але трэба ўмець працаваць перш за ўсё з моладдзю — тымі, хто пораху не нюхаў. І мы ад гэтага нікуды не падзенемся», — рэзюмаваў Прэзідэнт.

Раней падчас сустрэчы з маладзёжным актывам і ветэранамі камсамольскага руху Аляксандр Лукашэнка заўважыў, што штучны інтэлект, сучасныя тэхналогіі вельмі змяняюць грамадства. І папярэдзіў, што ў сувязі з гэтым нас чакае няпросты час. «Нам прыйдзецца маладняк навучыць карыстацца гэтымі гаджэтамі, заснаванымі на штучным інтэлекце. Таму што з’яўляюцца такія фэйкі — там у вусны могуць укласці любую заразу, — сказаў кіраўнік дзяржавы. — Гэта штука вельмі ўплывае на свет, на ўзаемаадносіны людзей. І тут нам трэба быць вельмі асцярожнымі». Ён заўважыў, што ІТ-сфера вельмі важная, практычна ваенная і прадугледжвае вялікую работу, каб гэтыя тэхналогіі ішлі на карысць, а не на шкоду.

Захар БУРАК

Выбар рэдакцыі

Грамадства

Пар­ты­зан­скі след у Бе­ла­рус­кай на­сту­паль­най апе­ра­цыі «Баг­ра­ці­ён»

Пар­ты­зан­скі след у Бе­ла­рус­кай на­сту­паль­най апе­ра­цыі «Баг­ра­ці­ён»

Ба­я­вое ўза­е­ма­дзе­ян­не най­вы­шэй­ша­га ўзроў­ню.

Грамадства

Якой павінна быць ежа для дзяцей: смачнай ці карыснай?

Якой павінна быць ежа для дзяцей: смачнай ці карыснай?

«Дзесяцігоддзі школьнае харчаванне нашых дзяцей будавалася на аснове зборніка рэцэптур».

Энергетыка

Беларусь у лідарах па энергаэфектыўнасці

Беларусь у лідарах па энергаэфектыўнасці

А сярод краін ЕАЭС — на першым месцы.