«Зьніжэньне рызыкі выміраньня чалавецтва з прычыны разьвіцьця штучнага інтэлекту павінна стаць глябальным прыярытэтам поруч зь іншымі рызыкамі, такімі як пандэміі і ядзерная вайна», — гаворыцца ў заяве, апублікаванай на сайце Цэнтру бясьпекі штучнага інтэлекту ў Сан-Францыска, паведамляе ВВС.
Гэта ўвесь тэкст заявы, які ягоныя аўтары наўмысна зрабілі максымальна кароткім.
Заяву ўжо падпісалі больш за 350 кіраўнікоў, дасьледчыкаў і інжынэраў у галіне штучнага інтэлекту, у тым ліку Сэм Альтман з OpenAI, Дэміс Хасабіс з Google DeepMind і Дарыё Амадэй з Anthropic.
Дакумэнт таксама падпісалі ляўрэаты прэміі Т'юрынга за працу над нэўроннымі сеткамі Джэфры Гінтан і Джошуа Бэнджыё, якіх часта называюць хроснымі бацькамі штучнага інтэлекту. На пачатку траўня Гінтан нават падаў у адстаўку са сваёй пасады ў Google, каб мець магчымасьць свабодна гаварыць пра патэнцыйную шкоду тэхналёгіяў, не аглядаючыся на карпаратыўную этыку.
ГЛЯДЗІЦЕ ТАКСАМА: Кіраўнікоў найбуйнейшых IT-кампаній запрасілі ў Белы дом параіцца, ці небясьпечны штучны інтэлектНя першае папярэджаньне
Заява, апублікаваная на сайце Цэнтру бясьпекі штучнага інтэлекту, — ня першае папярэджаньне падобнага кшталту. У сакавіку вядучыя дзеячы ў галіне распрацоўкі штучнага інтэлекту, у тым ліку Ілан Маск і заснавальнік Apple Стыў Возьняк, ужо заклікалі прыпыніць дасьледаваньні ў гэтай галіне да таго часу, пакуль ня будуць распрацаваныя і ўкаранёныя надзейныя пратаколы бясьпекі.
Яны апублікавалі адкрыты ліст, у якім падрабязна апісалі патэнцыйныя, зь іх пункту гледжаньня, рызыкі, якімі можа суправаджацца разьвіцьцё штучнага інтэлекту. Сярод іх — распаўсюджваньне дэзынфармацыі, скарачэньне працоўных месцаў, у тым ліку і ў тых сфэрах, якія прыносяць радасьць творчасьці, і ўвогуле — магчымасьць поўнай страты кантролю над разьвіцьцём чалавечай цывілізацыі.
ГЛЯДЗІЦЕ ТАКСАМА: Маск, Возьняк і іншыя тэхналягічныя лідэры заклікалі прыпыніць навучаньне новых сыстэм штучнага інтэлекту праз «пагрозу грамадзтву»Заканадаўцы ЭЗ ужо распрацоўваюць эўрапейскі закон аб штучным інтэлекце, аналягічныя абмежаваньні разглядаюцца і ў ЗША.
Пры гэтым скептыкі лічаць, што любыя абмежаваньні бессэнсоўныя да таго часу, пакуль яны не атрымаюць глябальнага распаўсюджваньня. Улічваючы, што сама прырода інтэрнэту не прадугледжвае захаваньня межаў, небясьпечныя праявы штучнага інтэлекту, распрацаванага, напрыклад, у Расеі ці Кітаі, усё роўна могуць прывесьці да нэгатыўных наступстваў для грамадзян Эўропы ці ЗША.
ГЛЯДЗІЦЕ ТАКСАМА: Чалавек памрэ, як памёр Бог — прадказаньні ізраільскага гісторыка ГЛЯДЗІЦЕ ТАКСАМА: «Горкі ўрок». Ці сапраўды эвалюцыя штучнага інтэлекту небясьпечная