На сустрэчы абмяркоўвалася пытаньне маральнага абавязку па абароне грамадзтва ад небясьпечных бакоў разьвіцьця штучнага інтэлекту.
Пра гэта паведамляе ВВС.
У чацьвер на сустрэчу ў Белы дом прыйшлі кіраўнікі асноўных гульцоў на рынку рэвалюцыйных дасьледаваньняў у галіне ШІ: Сундар Пічаі з Google, Сат'я Надэла з Microsoft і Сэм Олтмэн з Open AI — кампаніі, якая распрацавала папулярны чат-бот ChatGPT.
Палітыкі заявілі прадпрымальнікам, што на тых ляжыць «фундамэнтальная адказнасьць»: яны павінны пераканацца, што іх прадукты бясьпечныя, перш чым абнародаваць іх і запускаць у шырокае карыстаньне.
У Белым доме таксама адзначылі, што адміністрацыя прэзыдэнта не выключае ўвядзеньня новага заканадаўства, якое б рэгулявала дасьледаваньні ў галіне ШІ.
Па словах Сэма Олтмэна, усе прысутныя прадпрымальнікі, на дзіва, ня мелі рознагалосьсяў наконт рэгуляцыі галіны ў будучыні.
Усе яны таксама пагадзіліся на адкрытае тэставаньне сваіх ШІ-сыстэмаў на канфэрэнцыі па кібэрбясьпецы DEF CON, якая пройдзе ў жніўні гэтага году.
Прадукты, якія нядаўна зьявіліся на аснове ШІ-тэхналёгій, такія як чат-боты ChatGPT і Bard кампаніі Google, хутка ўвайшлі ва ўжытак у карыстальнікаў ва ўсім сьвеце.
Гэтыя кампутарныя праграмы, пакліканыя імітаваць рэальны дыялёг з карыстальнікам, у адказ на запыт шукаюць у інтэрнэце інфармацыю і складаюць зь яе адказ, сфармуляваны максымальна натуральна.
Распаўсюд чат-ботаў выклікаў заклапочанасьць у сувязі з тым, што калі тэхналёгіі ШІ працягнуць разьвівацца бескантрольна, гэта можа прывесьці да небясьпечных наступстваў для людзей: ад некіраваных патокаў дэзынфармацыі, распаўсюду фэйкаў і парушэньняў капірайту да маштабнага закрыцьця працоўных месцаў і нават страты кантролю над цывілізацыяй.
Пасьля сустрэчы з прадпрымальнікам Белы дом выпусьціў заяву пра тое, што хоча ўзмацніць дзяржаўны сэгмэнт на рынку ШІ і ўкладае 140 млн даляраў у стварэньне сямі новых дасьледчых інстытутаў.
У панядзелак навуковец Джэфры Гінтан, вядомы як «хросны бацька ШІ», сышоў з кампаніі Google, каб мець магчымасьць без аглядкі на карпаратыўныя правілы гаварыць пра небясьпекі, зьвязаныя з штучным інтэлектам. Пры гэтым ён назваў падыход самой Google да гэтых тэхналёгій адказным.
У сакавіку адкрыты ліст аб рызыках, зьвязаных з ШІ, падпісалі прадпрымальнік Ілон Маск і сузаснавальнік Apple Стыў Возьняк.
Яны заклікалі ўзяць паўзу ў дасьледаваньнях у сфэры штучнага інтэлекту, пакуль ня будуць распрацаваныя законы, якія рэгулююць галіну.
Іншыя спэцыялісты, такія як Біл Гейтс, заклікаюць факусавацца на выгадах, зьвязаных з разьвіцьцём ШІ, і не спыняць дасьледаваньні.
У ЗША таксама гучаць галасы, якія заклікаюць устрымлівацца ад залішняга рэгуляваньня і штучных абмежаваньняў у разьвіцьці гэтай галіны, каб Кітай не абагнаў Амэрыку ў гонцы штучных інтэлектаў.