Кіраўніцтва ISC прапануе ўсебаковую аснову, прызначаную для ліквідацыі разрыву паміж прынцыпамі высокага ўзроўню і практычнай, дзейснай палітыкай. Ён адказвае на надзённую патрэбу ў агульным разуменні як магчымасцяў, так і рызык, звязаных з новымі тэхналогіямі. Гэта важны дакумент для тых, хто працуе ў сферы палітыкі ў нашу лічбавую эпоху, якая хутка змяняецца.
Рамка даследуе патэнцыял штучнага інтэлекту і яго вытворных праз усёабдымную прызму, ахопліваючы дабрабыт чалавека і грамадства разам са знешнімі фактарамі, такімі як эканоміка, палітыка, навакольнае асяроддзе і бяспека. Некаторыя аспекты кантрольнага спісу могуць быць больш актуальнымі, чым іншыя, у залежнасці ад кантэксту, але лепшыя рашэнні выглядаюць больш верагоднымі, калі ўлічваць усе дамены, нават калі некаторыя з іх можна хутка вызначыць як неістотныя ў пэўных выпадках. Гэта неад'емная каштоўнасць падыходу кантрольнага спісу.
«У эпоху, адзначаную хуткімі тэхналагічнымі інавацыямі і складанымі глабальнымі праблемамі, структура ISC для ўсёабдымнага і шматмернага аналізу патэнцыйных наступстваў дае лідэрам магчымасць прымаць абгрунтаваныя і адказныя рашэнні. Гэта гарантуе, што, калі мы прасоўваемся ў тэхналагічным плане, мы робім гэта з дбайным улікам этычных, сацыяльных і эканамічных наступстваў».
Peter Глюкман, прэзідэнт ISC
У той час як прынцыпы высокага ўзроўню былі апублікаваны ЮНЕСКА, АЭСР, Еўрапейскай камісіяй і ААН, сярод іншых, і працягваюцца розныя дыскусіі адносна пытанняў патэнцыйнага кіравання, рэгулявання, этыкі і бяспекі, існуе вялікі разрыў паміж такімі прынцыпамі і кіравання або нарматыўнай базы. ISC вырашае гэтую патрэбу ў сваім новым кіраўніцтве для палітыкаў.
Гэты дапаможнік для асоб, якія вызначаюць палітыку, прызначаны не для таго, каб забараніць рэжым рэгулявання, а хутчэй для таго, каб прапанаваць адаптыўную аналітычную аснову, якая развіваецца, якая можа ляжаць у аснове любой ацэнкі і працэсаў рэгулявання, якія могуць быць распрацаваны зацікаўленымі бакамі, уключаючы ўрады і шматбаковую сістэму.
«Фреймворк з'яўляецца найважнейшым крокам у глабальнай размове аб ІІ, паколькі ён забяспечвае аснову, на якой мы можам пабудаваць кансенсус адносна наступстваў тэхналогіі як цяпер, так і ў будучыні».
Хема Шрыдхар, былы галоўны навуковы дарадца Міністэрства абароны Новай Зеландыі, а цяпер старшы навуковы супрацоўнік Fellow, Оклендскі ўніверсітэт, Новая Зеландыя.
З кастрычніка 2023 года было рэалізавана некалькі значных нацыянальных і шматбаковых ініцыятыў з далейшым разглядам этыкі і бяспекі ІІ. Наступствы штучнага інтэлекту для цэласнасці некаторых нашых крытычна важных сістэм, у тым ліку фінансавай, дзяржаўнай, юрыдычнай і адукацыйнай, а таксама розных сістэм ведаў (у тым ліку навуковых і мясцовых), выклікаюць усё большую заклапочанасць. Структура дадаткова адлюстроўвае гэтыя аспекты.
Зваротная сувязь, атрыманая на сённяшні дзень ад членаў ISC і міжнароднай палітычнай супольнасці, адлюстравана ў перагледжанай версіі аналітычнай асновы, якая цяпер выпушчана ў якасці кіраўніцтва для палітыкаў.
Кіраўніцтва для палітыкаў: Ацэнка тэхналогій, якія хутка развіваюцца, уключаючы штучны інтэлект, вялікія моўныя мадэлі і не толькі
У гэтым дакуменце для абмеркавання апісаны першапачатковыя асновы для інфармавання шматлікіх глабальных і нацыянальных дыскусій, звязаных з ІІ.
Спампуйце структуру для выкарыстання ў вашай арганізацыі
Тут мы прапануем інструмент рамкі ў выглядзе аркуша Excel, які можна рэдагаваць, для выкарыстання ў вашай арганізацыі. Калі вы аддаеце перавагу фармат з адкрытым зыходным кодам, калі ласка, звяжыцеся з [электронная пошта абаронена].
Увядзенне
Тэхналогіі, якія хутка развіваюцца, ствараюць складаныя праблемы, калі справа даходзіць да іх выкарыстання, кіравання і магчымага рэгулявання. Пастаянная палітыка і грамадскія дэбаты аб штучным інтэлекце (ШІ) і яго выкарыстанні прывялі гэтыя праблемы да вострай увагі. Шырокія прынцыпы штучнага інтэлекту былі абвешчаныя ЮНЕСКА, АЭСР, ААН і іншымі, у тым ліку Дэкларацыя Блетчлі Вялікабрытаніі, і з'яўляюцца новыя юрысдыкцыйныя спробы рэгулявання аспектаў тэхналогіі праз, напрыклад, штучны інтэлект Еўрапейскага саюза (ЕС). Закон або нядаўні распараджэнне AI Злучаных Штатаў.
У той час як выкарыстанне штучнага інтэлекту доўга абмяркоўваецца на гэтых і іншых форумах, праз геапалітычныя рознагалоссі і ў краінах з любым узроўнем даходу, застаецца анталагічны разрыў паміж распрацоўкай прынцыпаў высокага ўзроўню і іх укараненнем у практыку праз нарматыўныя акты, палітыку, кіраванне або метады кіравання. Шлях ад прынцыпу да практыкі дрэнна вызначаны, але, улічваючы характар і кадэнцыю распрацоўкі і прымянення штучнага інтэлекту, разнастайнасць задзейнічаных інтарэсаў і дыяпазон магчымых ужыванняў, любы падыход не можа быць празмерна агульным або прадпісваючым.
Па гэтых прычынах недзяржаўная навуковая супольнасць працягвае адыгрываць асаблівую ролю. У кастрычніку 2023 г. Міжнародная навуковая рада (ISC) з плюралістычным складам прадстаўнікоў сацыяльных і прыродазнаўчых навук выпусціла дыскусійны дакумент, у якім прадставіла папярэднюю аналітычную аснову, у якой разглядаліся рызыкі, перавагі, пагрозы і магчымасці, звязаныя з хутка развіваюцца лічбавымі тэхналогіямі. Нягледзячы на тое, што ён быў распрацаваны для ўліку штучнага інтэлекту, ён па сваёй сутнасці не залежыць ад тэхналогій і можа прымяняцца да шэрагу новых і прарыўных тэхналогій, такіх як сінтэтычная біялогія і квантавая. У гэтым дыскусійным дакуменце былі запрошаныя акадэмікі і палітыкі. Пераважная колькасць водгукаў зрабіла правядзенне такога аналізу неабходным і стала каштоўным падыходам да разгляду новых тэхналогій, такіх як штучны інтэлект.
Мэта структуры - забяспечыць інструмент для інфармавання ўсіх зацікаўленых бакоў - у тым ліку ўрадаў, удзельнікаў гандлёвых перамоў, рэгулятараў, грамадзянскай супольнасці і прамысловасці - аб развіцці гэтых тэхналогій, каб дапамагчы ім сфармуляваць, як яны могуць разглядаць наступствы, станоўчыя або адмоўныя, сама тэхналогія, а больш канкрэтна яе канкрэтнае прымяненне. Гэтая аналітычная база была распрацавана незалежна ад дзяржаўных і галіновых інтарэсаў. Ён максімальна плюралістычны ў сваіх перспектывах, які ахоплівае ўсе аспекты тэхналогіі і яе наступствы на аснове шырокіх кансультацый і зваротнай сувязі.
Гэты дыскусійны дакумент для асоб, якія вызначаюць палітыку, прызначаны не для таго, каб забараніць рэжым рэгулявання, а хутчэй для таго, каб прапанаваць адаптыўную аналітычную аснову, якая развіваецца, якая можа ляжаць у аснове любой ацэнкі і працэсаў рэгулявання, якія могуць быць распрацаваны зацікаўленымі бакамі, уключаючы ўрады і шматбаковую сістэму.
Паколькі асобы, якія прымаюць рашэнні на глабальным і нацыянальным узроўнях, разглядаюць адпаведныя налады палітыкі і рычагі, каб збалансаваць рызыкі і выгады ад новай тэхналогіі, такой як штучны інтэлект, аналітычная структура прызначана ў якасці дадатковага інструмента для забеспячэння адэкватнага адлюстравання поўнага набору магчымых наступстваў.
Даведка: чаму аналітычная аснова?
Хуткае з'яўленне тэхналогій са складанасцю і наступствамі штучнага інтэлекту выклікае шмат прэтэнзій на вялікую карысць. Аднак гэта таксама правакуе страх перад значнымі рызыкамі, ад індывідуальнага да геастратэгічнага ўзроўню.1 Большая частка дыскусій на сённяшні дзень разглядалася ў бінарным сэнсе, паколькі публічна выказаныя погляды, як правіла, адбываюцца на крайніх канцах спектру. Прэтэнзіі за або супраць штучнага інтэлекту часта гіпербалічныя і, улічваючы прыроду тэхналогіі, іх цяжка ацаніць.
Неабходны больш прагматычны падыход, дзе гіпербала замяняецца калібраванымі і больш дэталёвымі ацэнкамі. Тэхналогія штучнага інтэлекту будзе працягваць развівацца, і гісторыя паказвае, што практычна кожная тэхналогія мае як карысць, так і шкоду. Такім чынам, узнікае пытанне: як мы можам дасягнуць карысных вынікаў ад гэтай тэхналогіі, адначасова зніжаючы рызыку шкодных наступстваў, некаторыя з якіх могуць быць экзістэнцыяльнымі па велічыні?
Будучыня заўсёды нявызначаная, але ёсць дастаткова надзейных і экспертных галасоў адносна штучнага інтэлекту і генератыўнага штучнага інтэлекту, каб заахвочваць адносна асцярожны падыход. Акрамя таго, неабходны сістэмны падыход, паколькі ШІ - гэта клас тэхналогій з шырокім выкарыстаннем і прымяненнем рознымі тыпамі карыстальнікаў. Гэта азначае, што неабходна ўлічваць увесь кантэкст пры разглядзе наступстваў выкарыстання любога штучнага інтэлекту для асобных людзей, грамадскага жыцця, грамадзянскага жыцця, грамадскага жыцця і ў глабальным кантэксце.
У адрозненне ад большасці іншых тэхналогій, для лічбавых і звязаных з імі тэхналогій час паміж распрацоўкай, выпускам і прымяненнем вельмі кароткі, што ў асноўным абумоўлена інтарэсамі вытворчых кампаній або агенцтваў. Па самой сваёй прыродзе - і з улікам таго, што ён заснаваны на лічбавай магістралі - ШІ будзе мець прыкладанні, якія хутка распаўсюджваюцца, як гэта ўжо было заўважана пры распрацоўцы вялікіх моўных мадэляў. У выніку некаторыя ўласцівасці могуць праявіцца толькі пасля вызвалення, што азначае, што існуе рызыка непрадбачаных наступстваў, як злосных, так і дабратворных.
Важныя грамадскія каштоўнасці, асабліва ў розных рэгіёнах і культурах, будуць уплываць на тое, як успрымаецца і прымаецца любое выкарыстанне. Больш за тое, геастратэгічныя інтарэсы ўжо дамінуюць у дыскусіі, суверэнныя і шматбаковыя інтарэсы пастаянна перасякаюцца і, такім чынам, выклікаюць канкурэнцыю і раскол.
На сённяшні дзень большая частка рэгулявання віртуальнай тэхналогіі ў асноўным разглядалася праз прызму «прынцыпаў» і добраахвотнага выканання патрабаванняў, хаця і з Законам ЕС аб AI2 і падобным чынам мы назіраем пераход да больш выканальных, але некалькі вузкіх правілаў. Стварэнне эфектыўнага глабальнага або нацыянальнага кіравання тэхналогіямі і/або сістэмы рэгулявання застаецца складанай задачай, і відавочнага рашэння няма. Некалькі слаёў прыняцця рашэнняў з улікам рызыкі спатрэбіцца ўздоўж ланцужка, ад вынаходніка да вытворцы, да карыстальніка, да ўрада і да шматбаковай сістэмы.
У той час як ЮНЕСКА, АЭСР, Еўрапейская камісія і ААН, сярод іншых, абнародавалі прынцыпы высокага ўзроўню, і працягваюцца розныя дыскусіі на высокім узроўні адносна пытанняў патэнцыйнага кіравання, рэгулявання, этыкі і бяспекі, існуе вялікі разрыў паміж такімі прынцыпы і кіраванне або нарматыўная база. Гэта трэба вырашаць.
У якасці адпраўной кропкі ISC разглядае распрацоўку таксанаміі меркаванняў, на якую можа спасылацца любы распрацоўшчык, рэгулятар, палітычны дарадца, спажывец або асоба, якая прымае рашэнні. Улічваючы шырокія наступствы гэтых тэхналогій, такая сістэматыка павінна ўлічваць сукупнасць наступстваў, а не вузкафакусаваную структуру. Глабальная фрагментацыя ўзрастае з-за ўплыву геастратэгічных інтарэсаў на прыняцце рашэнняў, і, улічваючы актуальнасць гэтай тэхналогіі, вельмі важна, каб незалежныя і нейтральныя галасы настойліва адстойвалі адзіны і інклюзіўны падыход.
1) Hindustan Times. 2023. G20 павінна стварыць міжнародную групу экспертаў па тэхналагічных зменах.
https://www.hindustantimes.com/opinion/g20-must-set-up-an-international-panel-on-technological-change-101679237287848.html
2) Закон ЕС аб штучным інтэлекце. 2023. https://artificialintelligenceact.eu
Распрацоўка аналітычнай базы
ISC з'яўляецца асноўнай глабальнай няўрадавай арганізацыяй, якая аб'ядноўвае натуральныя і сацыяльныя навукі. Яго глабальны і дысцыплінарны ахоп азначае, што ён мае добрыя магчымасці для атрымання незалежных і глабальна рэлевантных парад для інфармавання аб складаных выбарах, якія чакаюць наперадзе, асабліва таму, што цяперашнія галасы на гэтай арэне ў асноўным зыходзяць ад прамысловасці або ад палітычных і палітычных супольнасцей буйных тэхналагічных дзяржаў.
Пасля перыяду шырокага абмеркавання, якое ўключала разгляд няўрадавага працэсу ацэнкі, ISC прыйшоў да высновы, што яго самым карысным укладам будзе стварэнне адаптыўнай аналітычнай структуры, якая можа быць выкарыстана ў якасці асновы для абмеркавання і прыняцця рашэнняў усімі зацікаўленыя бакі, у тым ліку падчас любых афіцыйных працэсаў ацэнкі, якія ўзнікаюць.
Папярэдняя аналітычная база, якая была апублікаваная для абмеркавання і водгукаў у кастрычніку 2023 г., мела форму ўсёабдымнага кантрольнага спісу, прызначанага для выкарыстання як дзяржаўнымі, так і няўрадавымі ўстановамі. Рамка вызначыла і даследавала патэнцыял такіх тэхналогій, як штучны інтэлект і яго вытворныя, праз шырокі аб'ектыў, які ахоплівае дабрабыт чалавека і грамадства, а таксама знешнія фактары, такія як эканоміка, палітыка, навакольнае асяроддзе і бяспека. Некаторыя аспекты кантрольнага спісу могуць быць больш актуальнымі, чым іншыя, у залежнасці ад кантэксту, але лепшыя рашэнні выглядаюць больш верагоднымі, калі ўлічваць усе дамены, нават калі некаторыя з іх можна хутка вызначыць як неістотныя ў пэўных выпадках. Гэта неад'емная каштоўнасць падыходу кантрольнага спісу.
Папярэдняя аснова была створана на аснове папярэдняй працы і разважанняў, у тым ліку справаздачы Міжнароднай сеткі дзяржаўных навуковых кансультацый (INGSA) аб лічбавым дабрабыце3 і Структуры АЭСР для класіфікацыі сістэм штучнага інтэлекту4, каб прадставіць сукупнасць патэнцыйных магчымасцей, рызык і наступстваў ІІ. Гэтыя папярэднія прадукты былі больш абмежаваныя ў сваім намеры з улікам іх часу і кантэксту; існуе патрэба ва ўсёабдымнай аснове, якая прадстаўляе ўвесь спектр пытанняў як у кароткатэрміновай, так і ў доўгатэрміновай перспектыве.
З моманту выхаду дакумент для абмеркавання атрымаў значную падтрымку многіх экспертаў і палітыкаў. Многія з іх у прыватнасці падтрымалі рэкамендацыю па распрацоўцы адаптыўнай структуры, якая дазваляе наўмысна і актыўна ўлічваць рызыкі і наступствы тэхналогіі, і пры гэтым заўсёды ўлічвае сукупнасць вымярэнняў ад асобы да грамадства і сістэм.
Адным з ключавых назіранняў, зробленых праз зваротную сувязь, было прызнанне таго, што некаторыя наступствы, якія разглядаюцца ў рамках, па сваёй сутнасці шматгранныя і распаўсюджваюцца на некалькі катэгорый. Напрыклад, дэзінфармацыю можна разглядаць як з індывідуальнага, так і з геастратэгічнага пункту гледжання; такім чынам, наступствы будуць шырокімі.
Таксама быў прапанаваны варыянт уключэння тэматычных даследаванняў або прыкладаў для праверкі структуры. Гэта можа быць выкарыстана для распрацоўкі рэкамендацый, каб прадэманстраваць, як гэта можна выкарыстоўваць на практыцы ў розных кантэкстах. Аднак гэта было б значным мерапрыемствам і можа абмежаваць тое, як розныя групы ўспрымаюць выкарыстанне гэтай структуры. Гэта лепш за ўсё рабіць палітыкам, якія працуюць з экспертамі ў пэўных юрысдыкцыях або кантэкстах.
З кастрычніка 2023 года было рэалізавана некалькі значных нацыянальных і шматбаковых ініцыятыў з далейшым разглядам этыкі і бяспекі ІІ. Наступствы штучнага інтэлекту для цэласнасці некаторых нашых крытычна важных сістэм, у тым ліку фінансавай, дзяржаўнай, юрыдычнай і адукацыйнай, а таксама розных сістэм ведаў (у тым ліку навуковых і мясцовых), выклікаюць усё большую заклапочанасць. Перагледжаная база дадаткова адлюстроўвае гэтыя аспекты.
Водгукі, атрыманыя на сённяшні дзень, адлюстраваны ў перагледжанай версіі аналітычнай асновы, якая зараз выпушчана ў якасці кіраўніцтва для асоб, якія вызначаюць палітыку.
У той час як аснова прадстаўлена ў кантэксце штучнага інтэлекту і звязаных з імі тэхналогій, яе можна неадкладна перанесці на разгляд іншых тэхналогій, якія хутка развіваюцца, такіх як квантавая і сінтэтычная біялогія.
3) Глюкман, П. і Ален, К. 2018. Разуменне дабрабыту ў кантэксце хуткіх лічбавых і звязаных з імі пераўтварэнняў. INGSA.
https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf
4) АЭСР. 2022. Структура АЭСР для класіфікацыі сістэм штучнага інтэлекту. Дакументы АЭСР па лічбавай эканоміцы, № 323, #. Парыж, выдавецтва OECD.
https://oecd.ai/en/classificatio
Рамкі
У наступнай табліцы прадстаўлены памеры меркаванай аналітычнай структуры. Прыклады прадстаўлены, каб праілюстраваць, чаму кожны дамен можа мець значэнне; у кантэксце структура патрабуе адпаведнага кантэксту пашырэння. Таксама важна адрозніваць агульныя праблемы, якія ўзнікаюць падчас распрацоўкі платформы, і тыя, якія могуць узнікнуць падчас канкрэтных прыкладанняў. Ні адно меркаванне, уключанае тут, не павінна разглядацца як прыярытэтнае, і, такім чынам, усе павінны быць разгледжаны.
Праблемы ў цэлым згрупаваны ў наступныя катэгорыі, як паказана ніжэй:
У табліцы падрабязна апісаны памеры, якія, магчыма, спатрэбіцца ўлічваць пры ацэнцы новай тэхналогіі.
? INGSA. 2018. Разуменне дабрабыту ў кантэксце хуткіх лічбавых і звязаных з імі пераўтварэнняў.
https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf
? Новыя дэскрыптары (атрыманы ў выніку шырокіх кансультацый і водгукаў і агляду літаратуры)
? Структура АЭСР для класіфікацыі сістэм штучнага інтэлекту: інструмент эфектыўнай палітыкі ў галіне штучнага інтэлекту.
https://oecd.ai/en/classification
| Крытэрыі | Прыклады таго, як гэта можа быць адлюстравана ў аналізе |
| ?Кампетэнтнасць AI карыстальнікаў | Наколькі кампетэнтныя і дасведчаныя аб уласцівасцях сістэмы верагодныя карыстальнікі, якія будуць узаемадзейнічаць з сістэмай? Як ім будзе прадастаўлена адпаведная інфармацыя для карыстальнікаў і засцярогі? |
| ? Зацікаўленая асоба | Хто з'яўляецца асноўнымі зацікаўленымі бакамі, на якіх паўплывае сістэма (асобы, супольнасці, уразлівыя групы насельніцтва, работнікі сектара, дзеці, асобы, якія вызначаюць палітыку, спецыялісты і г.д.)? |
| ? Неабавязковасць | Ці прадастаўляецца карыстальнікам магчымасць адмовіцца ад сістэмы, ці ім прадастаўляецца магчымасць аспрэчыць або выправіць вынік? |
| ?Рызыкі для правоў чалавека і дэмакратычных каштоўнасцяў | Ці ўплывае сістэма прынцыпова на правы чалавека, уключаючы, але не абмяжоўваючыся імі, недатыкальнасць прыватнага жыцця, свабоду выказвання меркаванняў, справядлівасць, недыскрымінацыю і г.д.? |
| ?Патэнцыяльны ўплыў на дабрабыт людзей | Ці звязаны вобласці ўздзеяння сістэмы з дабрабытам асобнага карыстальніка (якасць працы, адукацыя, сацыяльнае ўзаемадзеянне, псіхічнае здароўе, ідэнтычнасць, асяроддзе і г.д.)? |
| ? Патэнцыял працоўнага перамяшчэння чалавека | Ці ёсць у сістэмы патэнцыял для аўтаматызацыі задач або функцый, якія выконваюцца людзьмі? Калі так, то якія наступствы наступствы? |
| ? Магчымасць маніпулявання ідэнтычнасцю, каштоўнасцямі або ведамі | Сістэма распрацавана або патэнцыйна здольная маніпуляваць асобай карыстальніка або усталёўваць каштоўнасці, ці распаўсюджваць дэзінфармацыю? |
| ? Магчымасці самавыяўлення і самарэалізацыі | Ці ёсць патэнцыял для хітрыкі і няўпэўненасці ў сабе? Ці ёсць патэнцыял для ілжывага або неправераныя патрабаванні экспертызы? |
| ? Меры ўласнай годнасці | Ці ёсць ціск, каб адлюстраваць ідэалізаванае сябе? Ці можа аўтаматызацыя замяніць пачуццё асабістай рэалізацыі? Ці ёсць ціск канкураваць з сістэмай у працоўнае месца? Ці цяжэй абараніць асобную рэпутацыю ад дэзінфармацыі? |
| ? Прыватнасць | Ці ёсць разрозненыя абавязкі па захаванні прыватнасці і ці ёсць такія робяцца здагадкі аб тым, як выкарыстоўваюцца асабістыя даныя? |
| ? Аўтаномнасць | Ці можа сістэма штучнага інтэлекту паўплываць на аўтаномію чалавека, выклікаючы празмерную залежнасць ад канчатковыя карыстальнікі? |
| ? Развіццё чалавека | Ці ўплывае на набыццё ключавых навыкаў для развіцця чалавека, напрыклад выканаўчыя функцыі або навыкі міжасобасных зносін, або змяненне часу ўвагі, якое ўплывае навучанне, развіццё асобы, праблемы псіхічнага здароўя і г.д.? |
| ? Ахова здароўя асобы | Ці ёсць прэтэнзіі да самадыягностыкі або персаналізаваных рашэнняў для аховы здароўя? Калі так, яны пацверджаны нарматыўным стандартам? |
| ? Псіхічнае здароўе | Ці існуе рызыка павышэння трывогі, адзіноты або іншых праблем з псіхічным здароўем, або ці можа тэхналогія змякчыць такія наступствы? |
| ? Эвалюцыя чалавека | Ці могуць вялікія моўныя мадэлі і штучны агульны інтэлект змяніць ход эвалюцыі чалавека? |
| ? Чалавека-машыннае ўзаемадзеянне | Ці можа выкарыстанне з часам прывесці да дэкваліфікацыі і залежнасці асоб? Ёсць ці ўплывае на ўзаемадзеянне паміж людзьмі? |
| Крытэрыі | Прыклады таго, як гэта можа быць адлюстравана ў аналізе |
| ? Грамадскія каштоўнасці | Ці сістэма фундаментальна змяняе прыроду грамадства, ці дазваляе нармалізаваць ідэі, якія раней лічыліся антысацыяльнымі, ці парушае грамадскія каштоўнасці культуры, у якой яна прымяняецца? |
| ? Сацыяльныя ўзаемадзеяння | Ці ўплывае на значны чалавечы кантакт, у тым ліку на эмацыйныя адносіны? |
| ? Здароўе насельніцтва | Ці ёсць у сістэмы патэнцыял для прасоўвання або падарвання намераў насельніцтва ў галіне аховы здароўя? |
| ? Культурнае самавыяўленне | Ці з'яўляецца павелічэнне культурнага прысваення або дыскрымінацыі верагодным або больш цяжкім для барацьбы? Ці выключае або маргіналізуе залежнасць ад сістэмы прыняцця рашэнняў культурна адпаведныя секцыйныя сувязі грамадства? |
| ? Народная адукацыя | Ці ёсць уплыў на ролі настаўнікаў або навучальных устаноў? Сістэма падкрэслівае або памяншае лічбавы разрыў і няроўнасць сярод студэнтаў? Унутраная каштоўнасць ведаў або крытычнага разумення павышана або падарвана? |
| ? Скажоныя рэаліі | Ці прымяняюцца метады, якія выкарыстоўваюцца для вызначэння праўды? Ці парушана ўспрыманне рэальнасці? |
| Крытэрыі | Прыклады таго, як гэта можа быць адлюстравана ў аналізе |
| ? Прамысловы сектар | У якім сектары прамысловасці разгорнута сістэма (фінансы, сельская гаспадарка, ахова здароўя, адукацыя, абарона і г.д.)? |
| ? Бізнес-мадэль | У якой бізнес-функцыі выкарыстоўваецца сістэма і ў якой якасці? Дзе выкарыстоўваецца сістэма (прыватная, дзяржаўная, некамерцыйная)? |
| ? Уздзеянне на важныя дзеянні | Ці паўплывае парушэнне функцыянавання або дзейнасці сістэмы на асноўныя паслугі або крытычную інфраструктуру? |
| ?Шырыня разгортвання | Як разгортваецца сістэма (вузкае выкарыстанне ўнутры падраздзялення супраць шырокага распаўсюджвання на нацыянальным/міжнародным узроўні)? |
| ? Тэхнічная спеласць | Наколькі тэхнічна спелая сістэма? |
| ? Сумяшчальнасць | Ці ёсць верагоднасць таго, што на нацыянальным або глабальным узроўні будуць тармазіць свабодны гандаль і паўплываць на супрацоўніцтва з партнёрамі? |
| ? Тэхналагічны суверэнітэт | Ці з'яўляецца жаданне тэхналагічнага суверэнітэту кіраваць паводзінамі, уключаючы кантроль над усёй ланцужком паставак штучнага інтэлекту? |
| ? Пераразмеркаванне даходаў і нацыянальныя фіскальныя рычагі | Ці могуць быць парушаныя асноўныя ролі суверэннай дзяржавы (напрыклад, рэзервовыя банкі)? Ці павысіцца ці зменшыцца здольнасць дзяржавы адпавядаць чаканням грамадзян і наступствам (сацыяльным, эканамічным, палітычным і г.д.)? |
| ? Лічбавы разрыў (AI divide) | Ці пагаршаецца існуючая лічбавая няроўнасць, ці ствараюцца новыя? |
| Крытэрыі | Прыклады таго, як гэта можа быць адлюстравана ў аналізе |
| ? Кіраванне і дзяржаўная служба | Ці могуць станоўча ці адмоўна паўплываць на механізмы кіравання і глабальную сістэму кіравання? |
| ? СМІ | Ці можа публічны дыскурс палярызавацца і замацавацца на ўзроўні насельніцтва? Ці паўплывае гэта на ўзровень даверу да чацвёртай улады? Ці гэта яшчэ больш паўплывае на стандарты журналісцкай этыкі і добрасумленнасці? |
| ? Прававая дзяржава | Ці паўплывае гэта на здольнасць ідэнтыфікаваць асоб або арганізацыі, якіх трэба прыцягнуць да адказнасці (напрыклад, якую адказнасць прызначыць алгарытму для неспрыяльных вынікаў)? Ці ствараецца страта суверэнітэту (экалагічная, фіскальная, сацыяльная палітыка, этыка і г.д.)? |
| ?Палітыка і сацыяльная згуртаванасць | Ці ёсць магчымасць больш укаранёных палітычных поглядаў і менш магчымасці для дасягнення кансенсусу? Ці ёсць магчымасць далейшай маргіналізацыі груп? Спаборніцкія стылі палітыкі больш ці менш верагодныя? |
| ? Сацыяльная ліцэнзія | Ці ёсць праблемы прыватнасці, праблемы даверу і маральныя праблемы, якія неабходна ўлічваць, каб зацікаўленыя бакі прынялі выкарыстанне? |
| ? Веды карэннага насельніцтва | Ці могуць веды і даныя карэннага насельніцтва быць пашкоджанымі або незаконна прысвоенымі? Ці існуюць адэкватныя меры абароны ад скажэння, дэзінфармацыі і выкарыстання? |
| ? Навуковая сістэма | Ці парушаецца акадэмічная і навуковая сумленнасць? Ці ёсць страта даверу да навукі? Ці ёсць верагоднасць няправільнага выкарыстання, празмернага выкарыстання або злоўжывання? Што з'яўляецца следствам практыкі навукі? |
| Крытэрыі | Прыклады таго, як гэта можа быць адлюстравана ў аналізе |
| ? Дакладнае назіранне | Ці навучаюцца сістэмы на індывідуальных паводніцкіх і біялагічных дадзеных і ці могуць яны выкарыстоўвацца для эксплуатацыі асобных людзей або груп? |
| ? Лічбавая канкурэнцыя | Ці могуць дзяржаўныя або недзяржаўныя суб'екты (напрыклад, буйныя тэхналагічныя кампаніі) выкарыстоўваць сістэмы і дадзеныя для разумення і кантролю насельніцтва і экасістэм іншых краін або падарваць юрысдыкцыйны кантроль? |
| ? Геапалітычнае спаборніцтва | Ці можа гэтая сістэма выклікаць канкурэнцыю паміж краінамі за выкарыстанне індывідуальных і групавых даных у інтарэсах эканомікі, медыцыны і бяспекі? |
| ? Змена глабальных сіл | Ці знаходзіцца пад пагрозай статус нацыянальных дзяржаў як асноўных геапалітычных суб'ектаў свету? Ці валодаюць тэхналагічныя кампаніі ўладай, якая калісьці была зарэзервавана для нацыянальных дзяржаў, і ці сталі яны незалежнымі, суверэннымі суб'ектамі (фармуецца тэхнапалярны сусветны парадак)? |
| ? Дэзінфармацыя | Ці будзе сістэма садзейнічаць вытворчасці і распаўсюджванню дэзінфармацыі дзяржаўнымі і недзяржаўнымі суб'ектамі, што паўплывае на сацыяльную згуртаванасць, давер і дэмакратыю? |
| ? Прыкладанні падвойнага прызначэння | Ці ёсць магчымасць як ваеннага, так і грамадзянскага прымянення? |
| ? Фрагментацыя глабальнага парадку | Ці могуць узнікнуць раз'яднаныя структуры або кластары рэгулявання і адпаведнасці, якія перашкаджаюць супрацоўніцтву, прыводзяць да неадпаведнасці ў прымяненні і ствараюць прастору для канфліктаў? |
| Крытэрыі | Прыклады таго, як гэта можа быць адлюстравана ў аналізе |
| ? Спажыванне энергіі і рэсурсаў (вугляродны след) | Ці павялічваюць сістэма і патрабаванні спажыванне энергіі і рэсурсаў у параўнанні з павышэннем эфектыўнасці, атрыманым з дапамогай прыкладання? |
| ?Крыніца энергіі | Адкуль бярэцца энергія для сістэмы (аднаўляльныя крыніцы супраць выкапнёвага паліва і г.д.)? |
| Крытэрыі | Прыклады таго, як гэта можа быць адлюстравана ў аналізе |
| ? Кірунак і збор | Даныя і ўвод збіраюцца людзьмі, аўтаматызаванымі датчыкамі або і тым, і іншым? |
| ? Паходжанне дадзеных | Ці з'яўляюцца дадзеныя і ўвод экспертаў прадстаўленымі, назіранымі, сінтэтычнымі або вытворнымі? Ці ёсць вадзяныя знакі для пацверджання паходжання? |
| ? Дынамічны характар даных | Даныя дынамічныя, статычныя, дынамічна абнаўляюцца час ад часу або ў рэжыме рэальнага часу? |
| ? правы | Ці з'яўляюцца дадзеныя прыватнымі, публічнымі або асабістымі (звязанымі з асобамі, якія можна ідэнтыфікаваць)? |
| ? Магчымасць ідэнтыфікацыі і асабістыя даныя | Калі даныя асабістыя, ананімныя або псеўданімныя? |
| ? Структура даных | Даныя структураваныя, паўструктураваныя, складана структураваныя ці неструктураваныя? |
| ? Фармат даных | Фармат даных і метададзеных стандартызаваны ці нестандартызаваны? |
| ? Маштаб даных | Які маштаб набору даных? |
| ? Адпаведнасць і якасць даных | Ці адпавядае набор дадзеных прызначэнню? Ці адэкватны памер выбаркі? Ці дастаткова ён рэпрэзентатыўны і поўны? Наколькі шумныя дадзеныя? Ці схільны ён памылак? |
| Крытэрыі | Прыклады таго, як гэта можа быць адлюстравана ў аналізе |
| ? Даступнасць інфармацыі | Ці ёсць інфармацыя аб мадэлі сістэмы? |
| ? Тып мадэлі штучнага інтэлекту | Ці з'яўляецца мадэль сімвалічнай (правілы, створаныя чалавекам), статыстычнай (выкарыстоўвае даныя) або гібрыднай? |
| ? Правы, звязаныя з мадэллю | Ці з'яўляецца мадэль з адкрытым зыходным кодам або прапрыетарным, самастойна або трэцім бокам? |
| ? Адзіная з некалькіх мадэляў | Сістэма складаецца з адной мадэлі або некалькіх узаемазвязаных мадэляў? |
| ? Генератыўны або дыскрымінатыўны | Ці з'яўляецца мадэль генератыўнай, дыскрымінацыйнай ці адначасова? |
| ? Мадэльны будынак | Ці вучыцца сістэма на аснове правілаў, напісаных чалавекам, з даных, праз навучанне пад наглядам або навучанне з падмацаваннем? |
| ? Эвалюцыя мадэлі (дрыфт AI) | Ці развіваецца мадэль і/або набывае здольнасці ў выніку ўзаемадзеяння з дадзенымі ў полі? |
| ? Федэратыўнае або цэнтралізаванае навучанне | Мадэль навучаецца цэнтралізавана або на некалькіх лакальных серверах або «памежных» прыладах? |
| ? Распрацоўка/суправаджэнне | Ці з'яўляецца мадэль універсальнай, наладжвальнай або прыстасаванай да даных акцёра AI? |
| ? Дэтэрмінаваны або імавернасны | Мадэль выкарыстоўваецца дэтэрмінаваным ці імавернасным чынам? |
| ? Празрыстасць мадэлі | Ці даступная інфармацыя для карыстальнікаў, каб яны маглі зразумець вынікі і абмежаванні мадэлі або выкарыстоўваць абмежаванні? |
| ? Вылічальнае абмежаванне | Ці ёсць у сістэмы вылічальныя абмежаванні? Ці можна прадказаць скачкі магчымасцяў або законы маштабавання? |
| Крытэрыі | Прыклады таго, як гэта можа быць адлюстравана ў аналізе |
| ? Задача(-і), выкананая сістэмай | Якія задачы выконвае сістэма (распазнаванне, выяўленне падзей, прагназаванне і інш.)? |
| ? Сумяшчэнне задач і дзеянняў | Ці спалучае сістэма некалькі задач і дзеянняў (сістэмы генерацыі кантэнту, аўтаномныя сістэмы, сістэмы кіравання і г.д.)? |
| ? Узровень аўтаномнасці сістэмы | Наколькі аўтаномныя дзеянні сістэмы і якую ролю адыгрываюць людзі? |
| ? Ступень удзелу чалавека | Ці ўдзельнічае чалавек у наглядзе за агульнай дзейнасцю сістэмы штучнага інтэлекту і здольнасць вырашаць, калі і як выкарыстоўваць сістэму штучнага інтэлекту ў любой сітуацыі? |
| ? Асноўны дадатак | Ці належыць сістэма да асноўнай вобласці прымянення, такой як чалавечыя моўныя тэхналогіі, камп'ютэрнае зрок, аўтаматызацыя і/або аптымізацыя або робататэхніка? |
| ? Ацэнка | Ці даступныя стандарты або метады для ацэнкі выхаду сістэмы? |
Як можна выкарыстоўваць гэты фрэймворк?
Гэтую структуру можна выкарыстоўваць рознымі спосабамі, у тым ліку:
Шлях наперад
Падводзячы вынік, аналітычная аснова прадстаўлена ў якасці асновы інструментарыя, які можа выкарыстоўвацца зацікаўленымі бакамі для комплекснага прагляду любых значных распрацовак платформаў або выкарыстання паслядоўным і сістэматычным чынам. Памеры, прадстаўленыя ў гэтай структуры, маюць дачыненне ад ацэнкі тэхналогій да дзяржаўнай палітыкі, ад чалавечага развіцця да сацыялогіі і даследаванняў будучыні і тэхналогій. Нягледзячы на тое, што гэтая аналітычная структура распрацавана для штучнага інтэлекту, яна мае значна больш шырокае прымяненне для любой іншай новай тэхналогіі.
6 Кансультатыўны савет AI ААН. 2023. Прамежкавая справаздача: Кіраванне ІІ для чалавецтва. https://www.un.org/sites/un2.un.org/files/ai_advisory_body_interim_report.pd
Падзякі
Падчас распрацоўкі як першапачатковага дыскусійнага дакумента, так і водгукаў пасля яго публікацыі былі пракансультаваны многія людзі, якія далі свае водгукі. Абодва дакументы былі падрыхтаваны Sir Peter Gluckman, прэзідэнт Міжнароднага навуковага камітэта, і Хема Шрыдхар, былы галоўны навуковы дарадца Міністэрства абароны Новай Зеландыі, а цяпер старшы навуковы супрацоўнік Fellow, Оклендскі ўніверсітэт, Новая Зеландыя.
У прыватнасці, лорд ISC Марцін Рыз, былы прэзідэнт Каралеўскага таварыства і сузаснавальнік Цэнтра вывучэння экзістэнцыяльных рызык Кембрыджскага ўніверсітэта; прафесар Шываджы Сондзі, прафесар фізікі Оксфардскага ўніверсітэта; прафесар К. Віджай Рагхаван, былы галоўны навуковы саветнік урада Індыі; Амандзіп Сінгх Гіл, пасланнік Генеральнага сакратара ААН па тэхналогіях; Seán Ó hÉigeartaigh, выканаўчы дырэктар Цэнтра вывучэння экзістэнцыяльных рызык Кембрыджскага ўніверсітэта; Сэр Дэвід Шпігельхальтэр, прафесар Грамадскага разумення рызыкі Універсітэта Вінтана
Кембрыджскі; Аманда-Джун Браўнэр, старшы саветнік па палітыцы, і Ян Уігінс, дырэктар па міжнародных справах Каралеўскага таварыства, Вялікабрытанія; Доктар Жэром Дзюберы, кіраўнік дырэктар і доктар Мары-Лор Салес, дырэктар Жэнеўскага інстытута вышэйшай адукацыі; Чор Фарн Лі, Цэнтр стратэгічнага будучага, офіс прэм'ер-міністра, Сінгапур; Барэнд Монс і доктар Сайман Ходсан, Камітэт па дадзеных (CoDATA); прафесар Юко Хараяма, былы выканаўчы дырэктар RIKEN; прафесар
Рэмі Куірыён, прэзідэнт INGSA; Доктар Клэр Крэйг, Оксфардскі ўніверсітэт і былы кіраўнік аддзела прагназавання, Дзяржаўнае ўпраўленне навукі; Прафесар Ёшуа Бенгіа, Навукова-кансультатыўны савет Генеральнага сакратара ААН і Універсітэт Манрэаля; і многія іншыя, якія давалі водгукі ISC аб першапачатковым абмеркаванні дакумента.
Падрыхтоўка нацыянальных даследчых экасістэм для штучнага інтэлекту: стратэгіі і прагрэс у 2024 годзе
Гэты працоўны дакумент аналітычнага цэнтра ISC, Цэнтра будучыні навукі, дае фундаментальную інфармацыю і доступ да рэсурсаў з краін з усіх частак свету на розных этапах інтэграцыі штучнага інтэлекту ў іх даследчыя экасістэмы.
Стварэнне навуковых сістэм, гатовых да будучыні, у краінах глабальнага Поўдня
Новыя тэхналогіі змяняюць спосаб вядзення навукі і прапануюць значны патэнцыял для ўмацавання навуковых сістэм у краінах глабальнага Поўдня, калі іх укараненне будзе кіравацца інклюзіўнымі, добра падтрыманымі і кантэкстуальна-асаблівымі падыходамі. Цэнтральнай тэмай нядаўняга стратэгічнага выезду стала тое, як забяспечыць уклад гэтых тэхналогій у больш справядлівыя і ўстойлівыя навуковыя сістэмы, а не ўмацаванне існуючай дыспрапорцыі.