Пра гэта са спасылкай на крыніцы ўнутры кампаніі піша Reuters.
Паводле суразмоўцаў агенцтва, гаворка ідзе аб прарыве ў стварэньні агульнага штучнага інтэлекту (AGI), які можа разумець навакольнае асяродзьдзе як чалавек і выконваць любыя інтэлектуальныя задачы. Адпаведна, навучаючыся, AGI можа перасягнуць чалавека ў рашэньні большасьці такіх задач.
OpenAI і аўтары ліста не адказалі на пытаньні Reuters. Аднак адзін з суразмоўцаў агенцтва сказаў, што ва ўнутраным паведамленьні кіраўніцтва прызнала наяўнасьць ліста і працу над праектам Q* (Q-Star).
Па словах іншага суразмоўцы, Q* здольны разьвязваць матэматычныя задачы, хоць пакуль ягоныя здольнасьці — на ўзроўні малодшаклясьніка. Аднак гэта ўсяляе ў дасьледнікаў «вялікі аптымізм наконт будучых посьпехаў праекту».
Цяпер прылады для вылічэньняў выкарыстоўваюць альгарытмы і могуць выконваць абмежаваную колькасьць апэрацый. Засваеньне ж матэматыкі мае на ўвазе, што штучны інтэлект будзе валодаць здольнасьцямі да развагі, гэта значыць, зможа абагульняць, вучыцца і разумець. Гэта можа дапамагчы ў навуковай дзейнасьці.
Аўтары ліста не ўдакладнілі, якія менавіта пагрозы нясе Q*. Навукоўцы ўжо даўно спрачаюцца аб небясьпецы, якую становяць высокаінтэлектуальныя машыны: напрыклад, ці ня вырашаць яны, што іх інтарэсам адпавядае зьнішчэньне чалавецтва.
Ліст стаў толькі адной з нагодаў для звальненьня Альтмана, якое рада дырэктараў матывавала тым, што Альтман быў зь імі не заўсёды адкрыты, піша Reuters. Таксама ў абвестцы аб звальненьні гендырэктара была такая падстава:
«OpenAI створаны для дасягненьня нашай місіі: гарантаваць, што агульны штучны інтэлект прынясе карысьць усяму чалавецтву. Рада па-ранейшаму цалкам адданая выкананьню гэтай місіі».
Празь некалькі дзён, пасьля пагрозы 700 з 770 супрацоўнікаў OpenAI звольніцца, з Альтманам удалося «дасягнуць прынцыповага пагадненьня» аб яго вяртаньні на пасаду гендырэктара.