Чым робат горшы за беларуса. Спэцыялістка па штучным інтэлекце пра машыны-забойцы і беларускі закон аб СМІ

Ці забароняць людзям кіраваць аўтамабілямі? Хто будзе несьці адказнасьць за рашэньні штучнага інтэлекту? Ці прынясуць карысьць зьмены ў беларускім законе аб СМІ, калі ўвядуць абавязковую ідэнтыфікацыю камэнтатараў?

Падчас міжнароднай канфэрэнцыі па бясьпецы Globsec2018 у Браціславе экспэртка па кібэрбясьпецы і штучным інтэлекце Даніт Галь адказала на пытаньні Радыё Свабода

«Адказнасьць павінна заставацца на чалавеку»

— Якія рашэньні ў наступныя 10 гадоў будуць масава прымацца ўжо не людзьмі, а штучным інтэлектам?

Даніт Галь

— Мы яшчэ не дайшлі да таго пункту, дзе маральная адказнасьць перакладаецца на штучны інтэлект. Але мы да гэтага набліжаемся. І мне здаецца, што гэта яшчэ сур’ёзна ўдарыць па нас.

Ужо цягам пары гадоў мы пабачым, як штучны інтэлект будзе прымаць рашэньні — прычым і такія, якія могуць прывесьці да кепскіх наступстваў. Як ужо цяпер, калі праз кампутарную памылку 450 тысяч жанчын у Брытаніі своечасова не атрымалі паведамленьні, што ім трэба прайсьці тэсты на рак. Таксама альгарытмы, якія прадказваюць паводзіны, ужо выкарыстоўваюцца ў сыстэме датэрміновых вызваленьняў — у судах і турмах.

Але пры гэтым людзі пакуль што не гатовыя ўскласьці на штучны інтэлект маральную адказнасьць. І я лічу, што гэта правільна — такая адказнасьць павінна заставацца на чалавеку.

Я хутчэй бачу, што штучны інтэлект будзе прымаць нейкія вузкія рашэньні, якімі ня будзе вызначацца чалавечы лёс.

Кіраўнік кампаніі SoftBank Corp. Масаёсі Сон прэзэнтуе новага робата на прэсавай канфэрэнцыі ў Токіё 5 ліпеня 2014 году.

— Але хіба ўжо цяпер няма сфэраў, дзе рашэньне — напрыклад, выдаваць ці не выдаваць крэдыт — фактычна прымае альгарытм? І ў нейкі момант паўстане пытаньне: хіба штучны інтэлект ня будзе тут больш узважаным і ня возьме пад увагу больш фактараў, чым чалавек? У тым ліку і ў мэдычнай сфэры.

— Давайце ўявім, што вы звышталенавіты інжынэр і вы стварылі альгарытм. І вы шмат ведаеце. Але застаюцца рэчы, якіх вы ня ведаеце. Вы можаце памыліцца.

Альгарытм бярэ вашыя веды, у тым ліку і вашыя памылкі, і ўзмацняе іх. Мы верым, што штучны інтэлект лепшы за нас. Але машына, якая гуляе ў шахматы лепш за чэмпіёна сьвету, пры гэтым ня можа падняць з падлогі лыжку.

Так, машына, якая правядзе агромністую колькасьць сканаваньняў, здолее распазнаваць рак. Але мы дагэтуль ня бачым дасканалых вынікаў. А калі даць гэтае заданьне вопытнаму чалавеку, ён зможа яго выканаць. І мы намагаемся ўзяць гэтыя веды, каб скарыстаць іх па ўсім сьвеце. Бо вельмі няшмат экспэртаў, якія могуць паглядзець на гэты рэнтгенаўскі здымак і за пару сэкундаў паставіць дыягназ. Рашэньне застанецца за чалавекам, і я ня думаю, што мы ў нейкім хуткім часе перадамо яго машынам.

Доктар вывучае выявы магнітна-рэзанансавай тамаграфіі

— Але возьмем сытуацыю, калі звышталенавіты інжынэр стварыў саманавучальную сетку. І статыстыка пакажа, што працэнт правільных рашэньняў у гэтай сеткі вышэйшы, чым у спэцыяліста-чалавека. Больш за тое, гэтая сетка ратуе жыцьці, бо, напрыклад, вайсковец-чалавек часьцей памылкова забівае мірных жыхароў. І мадэляваньне пакажа, што калі падключыць зброю да штучнага інтэлекту, будзе менш ахвяраў. Хіба гэта не пераканаўчы аргумэнт?

— Не. Зь дзьвюх прычынаў. Па-першае, машыны не нясуць маральнай і юрыдычнай адказнасьці. А мне здаецца, што юрыдычная адказнасьць заўсёды будзе найвялікшым бар’ерам для штучнага інтэлекту. А па-другое, машыны могуць навучацца і мець доступ да агромністай колькасьці інфармацыі, але шмат для якіх рашэньняў трэба мець эмацыйную рэакцыю. Бо ў рэальнасьці рэчы не чорна-белыя. Гэта не нулі і адзінкі. Паміж нулём і адзінкай шмат лічбаў, і я думаю, што людзі нашмат больш здольныя прымаць рашэньні ў гэтым прамежку, а машыны не. Для іх ёсьць правільна і няправільна, функцыянальна і не.

У гэтым сэнсе шмат рашэньняў можна палепшыць, бо будзе больш дадзеных. Але штучны інтэлект будзе выконваць ролю дарадцы для чалавека, які навучыцца зь ім працаваць. Штучны інтэлект можа дапоўніць працэс прыняцьця рашэньняў, але не замяніць яго.

Бесьпілётныя машыны: «Хутка і брудна»

— У дыскусіі пра будучыню бесьпілётных аўтамабіляў вы сказалі, што ў Кітаі гэтую сыстэму спрабуюць стварыць «хуткім і брудным» спосабам. Калі ёсьць моцная канкурэнцыя, заўсёды існуе спакуса рабіць усё хутка, ня надта зважаючы на бясьпеку ці экалёгію. А калі гаворка ідзе пра зброю, дык пагатоў. На вашую думку, ці можна не паддацца гэтай спакусе?

— Не. У мяне недастаткова веры ў чалавецтва, каб сказаць «так». Вы гаворыце пра сцэнар, які не дае мне спаць уначы. Бо я ўжо бачу як гэта адбываецца. Неабавязкова з аўтаномнай зброяй, хоць яна ўжо існуе, але з мноствам тэхналёгій, якія не працуюць так як меліся б.

Аўтаномныя аўтамабілі — выдатны прыклад. Яны навучаюцца ў «дзікіх» умовах, і часам здараюцца інцыдэнты, у якіх гінуць людзі. Я цяпер кажу пра Uber. Яны працуюць «хутка і брудна», і гэта выглядае эфэктыўным. Бо калі вы маеце новую тэхналёгію, вы маеце перавагу, вы — лідэр. Пытаньне ў тым, на якую шкоду людзям і інфраструктуры мы гатовыя пагадзіцца. І мне здаецца, што мы пабачым, як людзі прысьпешваюць выкарыстаньне гэтых тэхналёгій, бо цяжка не паддацца спакусе. Гэта гонка, у якой хочацца перамагчы. Але мы ня вельмі думаем пра наступствы. Часам, нават перамогшы ў гонцы, можна вельмі пашкодзіць мускулы ад хуткага бегу. І ўрэшце вы ня зможаце нават хадзіць.

Я гаварыла пра Кітай, бо там выпрабаваньні праходзяць у сельскай мясцовасьці, дзе ня самая лепшая сувязь, ня вельмі добрыя дарогі, і часам на дарогу можа выйсьці карова, ці нейкая іншая жывёліна. У Каліфорніі няма такіх асяродзьдзяў, але мы бачым, што людзі гінуць нават там, у вельмі арганізаваных транспартных сыстэмах. Калі нават ў такім асяродзьдзі выпрабаваньні прыводзяць да інцыдэнтаў з ахвярамі, дык нам варта пра гэта задумацца.

Робат-пілёт

— Але ў адказ могуць сказаць, што людзі ў падобных сытуацыях, паводле статыстыкі, створаць нават больш праблемаў і будзе больш ахвяраў.

— Так, гэта праўда. Вядома ж, людзі — жахлівыя кіроўцы (сьмяецца). Яны сядаюць за стырно п’янымі, стомленымі, размаўляюць па мабільных, пішуць паведамленьні ці задумваюцца пра нешта. Гэтых праблем можна пазьбегнуць з аўтаномнымі машынамі, але толькі ў тым выпадку, калі атрымаецца іх навучыць рэагаваць на нечаканыя паводзіны людзей. Але тут парадокс, бо як навучыць нечаканаму? Вы задумваліся — што атрымаецца, калі на адной дарозе будуць аўтаномныя аўтамабілі і кепскія кіроўцы?

— Дэйвід Робэртс, які займаецца падрыўнымі інавацыямі, кажа, што празь некалькі гадоў чалавеку забароняць кіраваць аўтамабілем, акрамя як на нейкіх гоначных трасах. Спачатку ў Каліфорніі, а потым гэта будзе пашырацца.

— Ну, мне цікава будзе на гэта паглядзець. Па-першае, я ня думаю, што людзі на гэта пагодзяцца, бо яны любяць свае аўтамабілі і ім падабаецца кіраваць машынамі. А па-другое, гэта зьнішчыць так шмат працоўных месцаў, што ня вытрымае ніякая эканоміка. Гэта цікавы сцэнар, але ня думаю, што такое здарыцца.

Ідэнтыфікацыя для ўраду, а не для суседзяў: «Жахлівая ідэя!»

— Вы былі адной з аўтарак дасьледаваньня ЮНЭСКА па супрацьстаяньні «мове нянавісьці» ў інтэрнэце. У Беларусі ўлады прапанавалі зьмены ў Закон аб СМІ, паводле якіх будуць забароненыя ананімныя камэнтары на мэдыйных сайтах. На вашую думку, ці дапаможа гэта перамагчы «мову нянавісьці»?

— Я ўжо нейкі час назіраю за тэндэнцыяй зьмяншаць магчымасьці для ананімнасьці. Цяпер я жыву ў Токіё, а раней жыла ў Кітаі. Для рэгістрацыі на тамтэйшых сацыяльных сетках трэба рэальная ідэнтыфікацыя асобы. Вам давядзецца даць свой нумар тэлефону, банкаўскі рахунак ці нешта такое.

— А для камэнтароў на сайтах японскіх СМІ?

— Пакуль што не (сьмяецца). І я нават не кажу, што гэта адбудзецца. Але ёсьць агульная тэндэнцыя на большую ідэнтыфікацыю. З аднаго боку, гэта дазваляе ўладам бачыць, хто што кажа. З другога боку, гэта дазваляе бачыць, хто што кажа, і астатнім людзям. І калі я жахлівы троль, якому падабаецца цкаваць людзей, дык мае суседзі бачаць гэта. Але калі я крытыкую свой урад, дык урад таксама ведае.

— У выпадку Беларусі працэдура яшчэ ня вызначаная, але вядзецца пра тое, што асобу камэнтатара абавязаныя ведаць уладальнікі мэдыйнага сайта і, адпаведна, улады. Гэта зусім ня значыць, што будуць ведаць вашыя суседзі.

— Тады гэта жахлівая ідэя! Бо яна падрывае вашую магчымасьць сказаць нешта, што не падабаецца ўладам, але пры гэтым ня будзе ніякай карысьці для грамадзтва. Будзе аднабаковая выгада для ўладаў.

Што тычыцца мадэлі, дзе вы ня можаце быць ананімным для суседзяў, дык яна працуе, як і любы шматмэтавы інструмэнт. Да прыкладу, кухонныя нажы вельмі карысныя, але яны могуць зрабіцца прыладай забойства. Дроны можна выкарыстоўваць для фантастычных здымкаў і для ратаваньня людзей, але таксама можна нагрузіць іх выбухоўкай. Нам трэба пра гэта думаць такім чынам: Гэта карысна для ўладаў, а як гэта карысна для мяне ці для грамадзтва?

Нам трэба забясьпечыць балянс у такіх пытаньнях. Нельга разьлічваць, што тэхналёгія будзе прыносіць карысьць толькі нейкаму аднаму боку. Калі гэта карысна толькі ўраду, дык гэта несправядліва. Калі гэта карысна толькі грамадзтву, дык хто за гэта будзе плаціць?

— Яшчэ адна прапанова ў беларускім законапраекце аб СМІ — магчымасьць блякаваць сацыяльныя сеткі цалкам, калі ўладальнікі ня хочуць выдаляць інфармацыю на патрабаваньне дзяржавы. Як вы ставіцеся да такога падыходу?

— Я бачу ў гэтым праблему. Бо гэта фактычна ставіць заслону на шляху камунікацыі і робіцца рычагом узьдзеяньня ў руках ураду.

— Ва Ўкраіне заблякавалі расейскія сацыяльныя сеткі «ВКонтакте» і «Одноклассники». Украінская ўлада тлумачыла, што ва ўмовах фактычнай вайны гэтыя сеткі выкарыстоўваліся Расеяй для збору інфармацыі пра ўкраінскіх грамадзян.

— Я разумею прычыны такога кроку, але таксама зразумелае і абурэньне тых, хто хоча карыстацца сацыяльнымі сеткамі. Вядома ж, яны могуць ужыць VPN, але гэта дадатковыя складанасьці, якіх нікому ня хочацца.

На такія пытаньні няма простых адказаў. Давайце ўявім, што мы ва Ўкраіне і працягваем карыстацца расейскімі сацыяльнымі сеткамі. У выніку нейкая інфармацыя трапляе да расейскіх спэцслужбаў і здараецца нешта кепскае. Хто нясе за гэта адказнасьць? Мы з вамі нават ведаць пра гэта ня будзем, мы проста размаўлялі.

Давайце зірнем на Фэйсбук. Яны атрымалі шмат справядлівай крытыкі за тое, што не абаранілі асабістыя дадзеныя сваіх карыстальнікаў. Але, напрыклад, у Шры-Лянцы Фэйсбук заахвочвае інтэрнэт-кампаніі даваць доступ да іх паслуг бясплатна. І людзі карыстаюцца гэтым увесь час, бо ня трэба плаціць за аб’ёмы інфармацыі. У выніку Фэйсбук робіцца адзінай сеткай камунікацыі, і калі там пачынаюць разыходзіцца нейкія чуткі, гэта прыводзіць да забурэньняў, гвалту і часам нават да забойстваў.

Хто вінаваты? Фэйсбук не нясе адказнасьці за чуткі, якія нехта прыдумаў. Немагчыма знайсьці таго, хто першым запусьціў чуткі, бо няма сыстэмы абавязковай ідэнтыфікацыі. Гэта можа быць хто заўгодна. Ці павінна Шры-Лянка забараніць Фэйсбук, каб спыніць чуткі? Ці павінен Фэйсбук несьці адказнасьць за тое, каб распазнаць, што праўда, а што чуткі, і як спыніць іх распаўсюд?

Атрымоўваецца, што існуе такі магутны інструмэнт, а ўлады яго не кантралююць. Гэта вельмі злуе ўлады, і яны маюць на гэта сур’ёзныя прычыны.

***​

Ізраільская дасьледчыца Даніт Галь цяпер працуе ва Ўнівэрсытэце Кэё ў Токіё (Японія) памочніцай кіраўніка праекту ў стратэгічным тэхналягічным плянаваньні. Яна таксама мае пасаду міжнароднага стратэгічнага дарадцы ва Ўнівэрсытэце Цінхуа ў Пэкіне (Кітай). У міжнароднай прафэсійнай асацыяцыі Інстытут інжынэраў электратэхнікі і электронікі Галь ўзначальвае працоўную групу, якая займаецца стандартамі бясьпекі для аўтаномных і паўатаномных сыстэмаў. Сярод іншага, яна займаецца вывучэньнем непрадказальных наступстваў штучнага інтэлекту ў супольным праекце Асацыяцыі ўнівэрсытэтаў Азіяцка-Ціхаакіянскага рэгіёну і кампаніі Google.