Шэраг акадэмікаў і палітычных экспертаў прапанавалі, каб Міжнародная навуковая рада - з яе плюралістычным членствам з сацыяльных і прыродазнаўчых навук - заснавала працэс стварэння і падтрымання анатаванай структуры/кантрольнага спісу рызык, пераваг, пагроз і магчымасцей. звязаны з хутка развіваюцца лічбавымі тэхналогіямі, у тым ліку, але не абмяжоўваючыся імі, AI. Мэтай кантрольнага спісу будзе інфармаванне ўсіх зацікаўленых бакоў - у тым ліку ўрадаў, удзельнікаў гандлёвых перамоў, рэгулятараў, грамадзянскай супольнасці і прамысловасці - аб патэнцыйных будучых сцэнарыях, а таксама афармленне таго, як яны могуць разглядаць магчымасці, перавагі, рызыкі і іншыя пытанні.
ISC з задавальненнем прадстаўляе гэты дыскусійны дакумент па ацэнцы лічбавых і сумежных тэхналогій, якія хутка развіваюцца. Штучны інтэлект, сінтэтычная біялогія і квантавыя тэхналогіі з'яўляюцца яркімі прыкладамі інавацый, заснаваных на навуцы, якія развіваюцца беспрэцэдэнтнымі тэмпамі. Можа быць складана сістэматычна прадбачыць не толькі іх прымяненне, але і іх наступствы.
Ацэнка сацыяльных аспектаў генератыўнага штучнага інтэлекту, такіх як вялікія моўныя мадэлі, якія прадказальна складаюць асноўную частку гэтага дыскусійнага дакумента, з'яўляецца неабходным мостам у сучасным дыскурсе - часам абумоўленым панікай, часам недастаткова глыбокім - і неабходнымі курсамі дзеянні, якія мы можам прыняць. ISC перакананы, што аналітычная аснова паміж грамадскім прызнаннем такіх новых тэхналогій і іх магчымым рэгуляваннем неабходная для садзейнічання шматбаковым абмеркаванням, неабходным для прыняцця абгрунтаваных і адказных рашэнняў аб тым, як аптымізаваць сацыяльныя перавагі гэтай тэхналогіі, якая хутка развіваецца.
ISC адкрыты для рэакцыі нашай супольнасці праз гэты дыскусійны дакумент, каб ацаніць, як лепш працягваць удзельнічаць і ўносіць свой уклад у дыскусію вакол тэхналогій.
Сальватору Арыко, генеральны дырэктар
Дыскусійны дакумент ISC
Аснова для ацэнкі лічбавых і сумежных тэхналогій, якія хутка развіваюцца: штучны інтэлект, вялікія моўныя мадэлі і не толькі
У гэтым дакуменце для абмеркавання апісаны першапачатковыя асновы для інфармавання шматлікіх глабальных і нацыянальных дыскусій, звязаных з ІІ.
Загрузіце справаздачуНавінка! Прачытайце версію 2024 для палітыкаў з даступнай для загрузкі асновай для вашай арганізацыі.
Кіраўніцтва для палітыкаў: Ацэнка тэхналогій, якія хутка развіваюцца, уключаючы штучны інтэлект, вялікія моўныя мадэлі і не толькі
У гэтым дакуменце для абмеркавання апісаны першапачатковыя асновы для інфармавання шматлікіх глабальных і нацыянальных дыскусій, звязаных з ІІ.
змест
Увядзенне
Тэхналогіі, якія хутка развіваюцца, ствараюць складаныя праблемы, калі справа даходзіць да іх кіравання і магчымага рэгулявання. Палітыка і грамадскія дэбаты аб штучным інтэлекце (ШІ) і яго выкарыстанні прывялі гэтыя праблемы да вострай увагі. Хаця ЮНЕСКА, АЭСР і іншыя абнародавалі шырокія прынцыпы штучнага інтэлекту, і вядуцца дыскусіі адносна глабальнага або юрысдыкцыйнага рэгулявання тэхналогіі, існуе анталагічны разрыў паміж распрацоўкай прынцыпаў высокага ўзроўню і іх уключэннем у нарматыўныя, палітычныя, падыходы да кіравання і кіравання. Тут асаблівую ролю магла б адыграць недзяржаўная навуковая супольнасць.
Шэраг акадэмікаў і палітычных экспертаў прапанавалі, каб Міжнародная навуковая рада (ISC) - з яе плюралістычным членствам з сацыяльных і прыродазнаўчых навук - заснавала працэс стварэння і падтрымання анатаванай структуры/кантрольнага спісу рызык, пераваг, пагрозы і магчымасці, звязаныя з хутка развіваюцца лічбавымі тэхналогіямі, у тым ліку, але не абмяжоўваючыся імі, ІІ. Мэтай кантрольнага спісу будзе інфармаванне ўсіх зацікаўленых бакоў - у тым ліку ўрадаў, удзельнікаў гандлёвых перамоў, рэгулятараў, грамадзянскай супольнасці і прамысловасці - аб патэнцыйных будучых сцэнарыях, а таксама афармленне таго, як яны могуць разглядаць магчымасці, перавагі, рызыкі і іншыя пытанні.
Вынікі будуць дзейнічаць не як орган ацэнкі, а як адаптыўная і развіваецца аналітычная аснова, якая можа ляжаць у аснове любой ацэнкі і нарматыўных працэсаў, якія могуць быць распрацаваны зацікаўленымі бакамі, уключаючы ўрады і шматбаковую сістэму. Любая аналітычная база ў ідэале павінна быць распрацавана незалежна ад прэтэнзій урада і галіны з улікам іх зразумелых інтарэсаў. Ён таксама павінен быць максімальна плюралістычным у сваіх перспектывах, такім чынам ахопліваючы ўсе аспекты тэхналогіі і яе наступствы.
У гэтым дакуменце для абмеркавання апісаны першапачатковыя асновы для інфармавання шматлікіх глабальных і нацыянальных дыскусій, звязаных з ІІ.
Даведачная інфармацыя: чаму патрэбна аналітычная структура?
Хуткае з'яўленне тэхналогіі са складанасцю і наступствамі штучнага інтэлекту выклікае шмат прэтэнзій на вялікія перавагі. Аднак гэта таксама выклікае страх перад значнымі рызыкамі, ад індывідуальнага да геастратэгічнага ўзроўню. Большая частка дыскусій, як правіла, адбываецца на крайніх канцах спектру поглядаў, і неабходны больш прагматычны падыход. Тэхналогія штучнага інтэлекту будзе працягваць развівацца, і гісторыя паказвае, што практычна кожная тэхналогія мае як карысць, так і шкоду. Такім чынам, узнікае пытанне: як мы можам дасягнуць карысных вынікаў ад гэтай тэхналогіі, адначасова зніжаючы рызыку шкодных наступстваў, некаторыя з якіх могуць быць экзістэнцыяльнымі па велічыні?
Будучыня заўсёды нявызначаная, але ёсць дастаткова надзейных і экспертных галасоў адносна штучнага інтэлекту і генератыўнага штучнага інтэлекту, каб заахвочваць адносна асцярожны падыход. Акрамя таго, патрэбен сістэмны падыход, таму што AI - гэта клас тэхналогій з шырокім выкарыстаннем і прымяненнем рознымі тыпамі карыстальнікаў. Гэта азначае, што пры разглядзе наступстваў штучнага інтэлекту для людзей, грамадскага жыцця, грамадзянскага жыцця, грамадскага жыцця і ў глабальным кантэксце неабходна ўлічваць увесь кантэкст.
У адрозненне ад большасці мінулых тэхналогій, лічбавыя і звязаныя з імі тэхналогіі маюць вельмі кароткі прамежак часу ад распрацоўкі да выпуску, што ў асноўным кіруецца інтарэсамі вытворчых кампаній або агенцтваў. ШІ хутка распаўсюджваецца; некаторыя ўласцівасці могуць стаць відавочнымі толькі пасля выпуску, і тэхналогія можа мець як зламыснае, так і добразычлівае прымяненне. Важныя памеры значэнняў будуць уплываць на тое, як успрымаецца любое выкарыстанне. Акрамя таго, тут могуць быць геастратэгічныя інтарэсы.
На сённяшні дзень рэгуляванне віртуальнай тэхналогіі ў асноўным разглядалася праз прызму «прынцыпаў» і добраахвотнага захавання. Аднак зусім нядаўна дыскусія перайшла да пытанняў нацыянальнага і шматбаковага кіравання, уключаючы выкарыстанне нарматыўных і іншых інструментаў палітыкі. Прэтэнзіі за або супраць штучнага інтэлекту часта гіпербалічныя і, улічваючы прыроду тэхналогіі, іх цяжка ацаніць. Стварэнне эфектыўнай глабальнай або нацыянальнай сістэмы рэгулявання тэхналогій будзе складанай задачай, і па ўсёй ланцужку спатрэбіцца некалькі слаёў прыняцця рашэнняў з улікам рызыкі, ад вынаходніка да вытворцы, да карыстальніка, да ўрада і да шматбаковай сістэмы.
У той час як прынцыпы высокага ўзроўню былі апублікаваны ЮНЕСКА, АЭСР і Еўрапейскай камісіяй, сярод іншых, і вядуцца розныя дыскусіі на высокім узроўні адносна пытанняў патэнцыйнага рэгулявання, існуе вялікі анталагічны разрыў паміж такімі прынцыпамі і сістэмай кіравання або нарматыўнай базай. Якая таксанамія меркаванняў, якія рэгулятару можа спатрэбіцца разгледзець? Вузканакіраванае апраўленне было б неразумным, улічваючы шырокія наступствы гэтых тэхналогій. Гэты патэнцыял быў прадметам шматлікіх каментарыяў, як станоўчых, так і адмоўных.
Распрацоўка аналітычнай базы
ISC з'яўляецца асноўнай глабальнай НДА, якая аб'ядноўвае натуральныя і сацыяльныя навукі. Яе глабальны і дысцыплінарны ахоп азначае, што яна мае добрыя магчымасці для атрымання незалежных і глабальна актуальных парад, каб інфармаваць складаныя выбары наперадзе, асабліва таму, што цяперашнія галасы на гэтай арэне ў асноўным гучаць з прамысловасці або з буйных тэхналагічных дзяржаў. Пасля шырокай дыскусіі ў апошнія месяцы, уключаючы разгляд няўрадавага працэсу ацэнкі, ISC прыйшоў да высновы, што яго самым карысным укладам будзе стварэнне і падтрыманне адаптыўнай аналітычнай структуры, якая можа выкарыстоўвацца ў якасці асновы для абмеркавання і прыняцця рашэнняў усе зацікаўленыя бакі, у тым ліку падчас любога афіцыйнага працэсу ацэнкі, які ўзнікае.
Гэтая база будзе мець форму ўсёабдымнага кантрольнага спісу, які можа выкарыстоўвацца як дзяржаўнымі, так і няўрадавымі ўстановамі. Структура вызначае і даследуе патэнцыял такіх тэхналогій, як штучны інтэлект і яго вытворныя, праз шырокі аб'ектыў, які ахоплівае дабрабыт чалавека і грамадства, а таксама знешнія фактары, такія як эканоміка, палітыка, навакольнае асяроддзе і бяспека. Некаторыя аспекты кантрольнага спісу могуць быць больш актуальнымі, чым іншыя, у залежнасці ад кантэксту, але больш верагодныя лепшыя рашэнні, калі ўлічваць усе вобласці. Гэта неад'емная каштоўнасць падыходу кантрольнага спісу.
Прапанаваная аснова створана на аснове папярэдняй працы і разважанняў, у тым ліку справаздачы аб лічбавым дабрабыце Міжнароднай сеткі дзяржаўных навуковых кансультацый (INGSA).1 і Рамкі класіфікацыі штучнага інтэлекту АЭСР2 прадставіць сукупнасць патэнцыйных магчымасцей, рызык і наступстваў ІІ. Гэтыя папярэднія прадукты былі больш абмежаваныя ў сваім намеры, улічваючы іх час і кантэкст, існуе патрэба ў агульнай структуры, якая прадстаўляе ўвесь спектр пытанняў як у кароткатэрміновай, так і ў доўгатэрміновай перспектыве.
Нягледзячы на тое, што гэтая аналітычная структура распрацавана для разгляду штучнага інтэлекту, яна можа прымяняцца да любой тэхналогіі, якая хутка развіваецца. Праблемы ў цэлым згрупаваны ў наступныя катэгорыі для далейшага вывучэння:
Спіс меркаванняў для кожнай з вышэйзгаданых катэгорый уключаны разам з іх адпаведнымі магчымасцямі і наступствамі. Некаторыя з іх падыходзяць для канкрэтных выпадкаў або прымянення штучнага інтэлекту, а іншыя з'яўляюцца агульнымі і не залежаць ад платформы або выкарыстання. Ні адно меркаванне, уключанае тут, не павінна разглядацца як прыярытэтнае, і, такім чынам, усе павінны быць разгледжаны.
Як можна выкарыстоўваць гэты фрэймворк?
Гэтая структура можа быць выкарыстана, але не абмяжоўваючыся імі, наступнымі спосабамі:
Наступная табліца - гэта ранняе фарміраванне памераў аналітычнай структуры. У залежнасці ад тэхналогіі і яе выкарыстання некаторыя кампаненты будуць больш актуальнымі, чым іншыя. Прыклады прадстаўлены, каб праілюстраваць, чаму кожны дамен можа мець значэнне; у кантэксце структура патрабуе адпаведнага кантэксту пашырэння. Таксама важна адрозніваць распрацоўкі платформы ад агульных праблем, якія могуць узнікнуць падчас канкрэтных прыкладанняў.
Памеры, якія трэба ўлічваць пры ацэнцы новай тэхналогіі
| Першапачатковы праект памераў, якія, магчыма, спатрэбіцца ўлічваць пры ацэнцы новай тэхналогіі | ||
| Памеры ўздзеяння | Крытэрыі | Прыклады таго, як гэта можа быць адлюстравана ў аналізе |
| Індывід / сам | Кампетэнтнасць AI карыстальнікаў | Наколькі кампетэнтныя і дасведчаныя аб уласцівасцях сістэмы верагодныя карыстальнікі, якія будуць узаемадзейнічаць з сістэмай? Як ім будзе прадастаўлена адпаведная інфармацыя для карыстальнікаў і засцярогі? |
| Зацікаўленыя бакі | Хто з'яўляецца асноўнымі зацікаўленымі бакамі, на якіх паўплывае сістэма (напрыклад, асобныя асобы, супольнасці, уразлівыя групы насельніцтва, работнікі сектара, дзеці, асобы, якія прымаюць палітыкі, спецыялісты)? | |
| Неабавязковасць | Ці прадастаўляецца карыстальнікам магчымасць адмовіцца ад сістэмы; ці варта ім даваць магчымасць аспрэчыць або выправіць вынікі? | |
| Рызыкі для правоў чалавека і дэмакратычных каштоўнасцяў | Ці можа сістэма паўплываць (і ў якім кірунку) на правы чалавека, у тым ліку, але не абмяжоўваючыся імі, недатыкальнасць прыватнага жыцця, свабоду выказвання меркаванняў, справядлівасць, рызыку дыскрымінацыі і г.д.? | |
| Патэнцыйнае ўздзеянне на дабрабыт людзей | Ці можа сістэма паўплываць (і ў якім кірунку) на дабрабыт асобнага карыстальніка (напрыклад, на якасць працы, адукацыю, сацыяльнае ўзаемадзеянне, псіхічнае здароўе, ідэнтычнасць, асяроддзе)? | |
| Патэнцыял працоўнага перамяшчэння чалавека | Ці ёсць у сістэмы патэнцыял для аўтаматызацыі задач або функцый, якія выконваюцца людзьмі? Калі так, то якія наступствы наступствы? | |
| Магчымасць маніпулявання ідэнтычнасцю, каштоўнасцямі або ведамі | Ці створана сістэма для маніпулявання ідэнтыфікацыяй або наборам каштоўнасцей карыстальніка або для распаўсюджвання дэзінфармацыі? Ці ёсць патэнцыял для ілжывых або неправераных прэтэнзій экспертызы? | |
| Меры ўласнай годнасці | Ці ёсць ціск, каб адлюстраваць сябе ідэалізаваным? Ці можа аўтаматызацыя замяніць пачуццё асабістай рэалізацыі? Ці існуе на працоўным месцы ціск канкурыраваць з сістэмай? Ці цяжэй абараніць асобную рэпутацыю ад дэзінфармацыі? | |
| недатыкальнасць прыватнага жыцця | Ці існуюць разрозненыя абавязкі па захаванні прыватнасці і ці робяцца якія-небудзь здагадкі аб тым, як выкарыстоўваюцца асабістыя даныя? | |
| Аўтаномія | Ці можа сістэма паўплываць на аўтаномію чалавека, выклікаючы празмерную залежнасць канчатковых карыстальнікаў ад тэхналогіі? | |
| Развіццё чалавека | Ці ўплывае на набыццё ключавых навыкаў для развіцця чалавека, такіх як выканаўчыя функцыі, навыкі міжасобасных зносін, змены часу ўвагі, якія ўплываюць на навучанне, развіццё асобы, праблемы з псіхічным здароўем і г.д.? | |
| Ахова здароўя асобы | Ці ёсць прэтэнзіі да персаналізаваных рашэнняў аховы здароўя? Калі так, ці пацверджаны яны нарматыўным стандартам? | |
| Псіхічнае здароўе | Ці існуе рызыка павышэння трывогі, адзіноты або іншых праблем з псіхічным здароўем, ці можа тэхналогія змякчыць такія наступствы? | |
| Эвалюцыя чалавека | Ці можа гэтая тэхналогія прывесці да змен у эвалюцыі чалавека? | |
| Памеры ўздзеяння | Крытэрыі | Description |
| Грамадства/сацыяльнае жыццё | Грамадскія каштоўнасці | Ці сістэма фундаментальна змяняе прыроду грамадства ці дазваляе нармалізаваць ідэі, якія раней лічыліся антысацыяльнымі, ці яна парушае грамадскія каштоўнасці культуры, у якой яна прымяняецца? |
| Сацыяльнае ўзаемадзеянне | Ці ўплывае на значны чалавечы кантакт, у тым ліку на эмацыйныя адносіны? | |
| Equity | Ці можа прымяненне/тэхналогія паменшыць або павялічыць няроўнасць (напрыклад, эканамічную, сацыяльную, адукацыйную, геаграфічную)? | |
| Здароўе насельніцтва | Ці ёсць у сістэмы патэнцыял для прасоўвання або падарвання намераў насельніцтва ў галіне аховы здароўя? | |
| Культурнае самавыяўленне | Ці з'яўляецца павелічэнне культурнага прысваення або дыскрымінацыі верагодным або больш цяжкім для барацьбы? Ці можа апора на сістэму прыняцця рашэнняў выключыць або маргіналізаваць часткі грамадства? | |
| Дзяржаўная адукацыя | Ці ёсць уплыў на ролі настаўнікаў або навучальных устаноў? Сістэма падкрэслівае або памяншае няроўнасць сярод студэнтаў і лічбавы разрыў? Унутраная каштоўнасць ведаў або крытычнага разумення пашырана або падарвана? | |
| Скажоныя рэаліі | Ці прымяняюцца метады, якія мы выкарыстоўваем, каб вызначыць, што праўда? Ці парушана ўспрыманне рэальнасці? | |
| Эканамічны кантэкст (гандаль) | Прамысловы сектар | У якім сектары прамысловасці разгорнута сістэма (напрыклад, фінансы, сельская гаспадарка, ахова здароўя, адукацыя, абарона)? |
| Бізнес-мадэль | У якой бізнес-функцыі выкарыстоўваецца сістэма і ў якой якасці? Дзе выкарыстоўваецца сістэма (прыватная, дзяржаўная, некамерцыйная)? | |
| Уплыў на крытычную дзейнасць | Ці паўплывае парушэнне функцыянавання або дзейнасці сістэмы на асноўныя паслугі або крытычную інфраструктуру? | |
| Дыханне разгортвання | Як разгортваецца сістэма (вузка ў межах арганізацыі супраць шырока распаўсюджанай на нацыянальным/міжнародным узроўні)? | |
| Тэхнічная сталасць (TRL) | Наколькі тэхнічна спелая сістэма? | |
| Тэхналагічны суверэнітэт | Ці спрыяе гэтая тэхналогія большай канцэнтрацыі тэхналагічнага суверэнітэту. | |
| Пераразмеркаванне даходаў і нацыянальныя фіскальныя рычагі | Ці могуць быць парушаныя асноўныя ролі суверэннай дзяржавы (напрыклад, рэзервовых банкаў)? Ці будзе здольнасць дзяржавы адпавядаць чаканням і наступствам грамадзян (напрыклад, сацыяльныя, эканамічныя, палітычныя) павышана або зніжана? | |
| Памеры ўздзеяння | Крытэрыі | Description |
| Грамадзянскае жыццё | Кіраванне і дзяржаўная служба | Ці могуць станоўча ці адмоўна паўплываць на механізмы кіравання і глабальныя сістэмы кіравання? |
| СМІ | Ці можа публічны дыскурс стаць больш-менш палярызаваным і замацаваным на ўзроўні насельніцтва? Ці паўплывае гэта на ўзровень даверу да СМІ? Ці будуць яшчэ больш закрануты традыцыйная журналісцкая этыка і стандарты добрасумленнасці? | |
| вяршэнства права | Ці паўплывае гэта на здольнасць ідэнтыфікаваць асоб або арганізацыі, якіх трэба прыцягнуць да адказнасці (г.зн. якую адказнасць прызначыць алгарытму для неспрыяльных вынікаў)? Ці прыводзіць гэта да страты суверэнітэту (напрыклад, экалагічнай, фіскальнай, сацыяльнай палітыкі, этыкі)? | |
| Палітыка і сацыяльная згуртаванасць | Ці ёсць магчымасць больш укаранёных палітычных поглядаў і менш магчымасці для дасягнення кансенсусу? Ці ёсць магчымасць далейшай маргіналізацыі груп? Спаборніцкія стылі палітыкі больш ці менш верагодныя? | |
| Геастратэгічны/геапалітычны кантэкст | Дакладнае назіранне | Ці навучаюцца сістэмы на індывідуальных паводніцкіх і біялагічных дадзеных, і калі так, ці могуць яны выкарыстоўвацца для эксплуатацыі асобных людзей або груп? |
| Лічбавая каланізацыя | Ці здольныя дзяржаўныя або недзяржаўныя суб'екты выкарыстоўваць сістэмы і дадзеныя, каб разумець і кантраляваць насельніцтва і экасістэмы іншых краін або падарваць юрысдыкцыйны кантроль? | |
| Геапалітычнае спаборніцтва | Ці ўплывае сістэма на канкурэнцыю паміж краінамі і тэхналагічнымі платформамі за доступ да індывідуальных і калектыўных даных для эканамічных або стратэгічных мэтаў? | |
| Гандаль і гандлёвыя дагаворы | Ці мае сістэма наступствы для міжнародных гандлёвых пагадненняў? | |
| Змена глабальных сіл | Ці знаходзіцца пад пагрозай статус нацыянальных дзяржаў як асноўных геапалітычных суб'ектаў свету? Ці будуць тэхналагічныя кампаніі валодаць уладай, калісьці зарэзерваванай для нацыянальных дзяржаў, і ці становяцца яны незалежнымі суверэннымі суб'ектамі? | |
| дэзінфармацыя | Ці прасцей дзяржаўным і недзяржаўным суб'ектам вырабляць і распаўсюджваць дэзінфармацыю, якая ўплывае на сацыяльную згуртаванасць, давер і дэмакратыю? | |
| экалагічная | Спажыванне энергіі і рэсурсаў (вугляродны след) | Ці павялічвае сістэма і патрабаванні спажыванне энергіі і рэсурсаў у параўнанні з павышэннем эфектыўнасці, атрыманым з дапамогай прыкладання? |
| Памеры ўздзеяння | Крытэрыі | Description |
| Дадзеныя і ўвод | Выяўленне і збор | Даныя і ўвод збіраюцца людзьмі, аўтаматызаванымі датчыкамі або і тым, і іншым? |
| Паходжанне дадзеных | Што тычыцца даных, яны прадастаўляюцца, назіраюцца, сінтэтычныя або вытворныя? Ці ёсць вадзяныя знакі для пацверджання паходжання? | |
| Дынамічны характар даных | Даныя дынамічныя, статычныя, абнаўляюцца час ад часу або абнаўляюцца ў рэжыме рэальнага часу? | |
| правоў | Ці з'яўляюцца даныя прыватнымі, агульнадаступнымі ці асабістымі (г.зн. звязанымі з асобамі, якія можна ідэнтыфікаваць)? | |
| Магчымасць ідэнтыфікацыі персанальных даных | Калі персанальныя даныя, яны ананімныя або псеўданімныя? | |
| Структура даных | Даныя структураваныя, паўструктураваныя, складана структураваныя ці неструктураваныя? | |
| Фармат даных | Фармат даных і метададзеных стандартызаваны ці нестандартызаваны? | |
| Маштаб даных | Які маштаб набору даных? | |
| Адпаведнасць і якасць даных | Ці адпавядае набор дадзеных прызначэнню? Ці адэкватны памер выбаркі? Ці дастаткова ён рэпрэзентатыўны і поўны? Наколькі шумныя дадзеныя? Ці схільны ён памылак? | |
| мадэль | Даступнасць інфармацыі | Ці даступная інфармацыя аб мадэлі сістэмы? |
| Тып мадэлі штучнага інтэлекту | Ці з'яўляецца мадэль сімвалічнай (правілы, створаныя чалавекам), статыстычнай (выкарыстоўвае даныя) або гібрыднай? | |
| Правы, звязаныя з мадэллю | Ці з'яўляецца мадэль з адкрытым зыходным кодам, прапрыетарнай, самастойнай або староннім кіраваннем? | |
| Адзінкавыя або некалькі мадэляў | Сістэма складаецца з адной мадэлі або некалькіх узаемазвязаных мадэляў? | |
| Генератыўны або дыскрымінатыўны | Ці з'яўляецца мадэль генератыўнай, дыскрымінацыйнай ці адначасова? | |
| Мадэльны будынак | Ці вучыцца сістэма на аснове правілаў, напісаных чалавекам, з даных, праз навучанне пад наглядам або навучанне з падмацаваннем? | |
| Эвалюцыя мадэлі (дрыфт AI) | Ці развіваецца мадэль і/або набывае здольнасці ў выніку ўзаемадзеяння з дадзенымі ў полі? | |
| Федэратыўнае або цэнтралізаванае навучанне | Мадэль навучаецца цэнтралізавана або на некалькіх лакальных серверах або «памежных» прыладах? | |
| Распрацоўка і абслугоўванне | Ці з'яўляецца мадэль універсальнай, наладжвальнай або прыстасаванай да даных акцёра AI? | |
| Дэтэрмінаваны або імавернасны | Мадэль выкарыстоўваецца дэтэрмінаваным ці імавернасным чынам? | |
| Празрыстасць мадэлі | Ці даступная інфармацыя для карыстальнікаў, каб яны маглі зразумець вынікі і абмежаванні мадэлі або выкарыстоўваць абмежаванні? | |
| Вылічальнае абмежаванне | Ці ёсць у сістэмы вылічальныя абмежаванні? Ці можам мы прадказаць скачкі магчымасцяў або законы маштабавання? | |
| Памеры ўздзеяння | Крытэрыі | Description |
| Заданне і вынік | Задача(-і), выкананая сістэмай | Якія задачы выконвае сістэма (напрыклад, распазнаванне, выяўленне падзей, прагназаванне)? |
| Сумяшчэнне задач і дзеянняў | Ці спалучае сістэма некалькі задач і дзеянняў (напрыклад, сістэмы генерацыі кантэнту, аўтаномныя сістэмы, сістэмы кіравання)? | |
| Узровень аўтаномнасці сістэмы | Наколькі аўтаномныя дзеянні сістэмы і якую ролю адыгрываюць людзі? | |
| Ступень удзелу чалавека | Ці ўдзельнічае чалавек у наглядзе за агульнай дзейнасцю сістэмы штучнага інтэлекту і здольнасць вырашаць, калі і як выкарыстоўваць сістэму ў любой сітуацыі? | |
| Асноўны дадатак | Ці належыць сістэма да асноўнай вобласці прымянення, такой як чалавечыя моўныя тэхналогіі, камп'ютэрны зрок, аўтаматызацыя і/або аптымізацыя або робататэхніка? | |
| Ацэнка | Ці даступныя стандарты або метады для ацэнкі выхаду сістэмы або барацьбы з непрадбачанымі ўзнікаючымі ўласцівасцямі? | |
Ключ да крыніцы дэскрыптараў
Звычайны тэкст:
Глюкман, П. і Ален, К. 2018. Разуменне дабрабыту ў кантэксце хуткіх лічбавых і звязаных з імі пераўтварэнняў. INGSA. https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf
Тоўсты тэкст:
АЭСР. 2022 год. Структура АЭСР для класіфікацыі сістэм штучнага інтэлекту. OECD Digital Economy Papers, № 323, OECD Publishing, Парыж. https://oecd.ai/en/classification
нахільны тэкст:
Новыя дэскрыптары (з некалькіх крыніц)
Шлях наперад
У залежнасці ад адказу на гэты дыскусійны дакумент, ISC будзе сфармаваць рабочую групу экспертаў для далейшай распрацоўкі або змянення прыведзенай вышэй аналітычнай базы, з дапамогай якой зацікаўленыя бакі могуць усебакова разглядаць любыя значныя змены ў платформах або памерах выкарыстання. Рабочая група будзе дысцыплінарна, геаграфічна і дэмаграфічна разнастайная, з вопытам, які ахоплівае ад ацэнкі тэхналогій да дзяржаўнай палітыкі, ад чалавечага развіцця да сацыялогіі і будучых і тэхналогій.
Каб прыняць удзел у абмеркаванні гэтага дакумента, наведайце Council.science/publications/framework-digital-technologies
Падзякі
Пры распрацоўцы гэтага дакумента, які быў падрыхтаваны, удзельнічала шмат кансультацый Sir Peter Gluckman, прэзідэнт ISC і Хема Шрыдхар, былы галоўны навуковы супрацоўнік Міністэрства абароны, а цяпер старшы навуковы супрацоўнік Оклендскага ўніверсітэта, Новая Зеландыя.
У прыватнасці, мы дзякуем лорду Марціну Рызу, былому прэзідэнту Каралеўскага таварыства і сузаснавальніку Цэнтра вывучэння экзістэнцыяльных рызык Кембрыджскага ўніверсітэта; прафесар Шываджы Сондзі, прафесар фізікі Оксфардскага ўніверсітэта; прафесар К. Віджай Рагхаван, былы галоўны навуковы саветнік урада Індыі; Амандзіп Сінгх Гіл, пасланнік Генеральнага сакратара ААН па тэхналогіях; Доктар Seán Óh Éigeartaigh, выканаўчы дырэктар Цэнтра вывучэння экзістэнцыяльных рызык Кембрыджскага ўніверсітэта; Аманда-Джун Браўнэр, старшы саветнік па палітыцы, і Ян Уігінс, дырэктар па міжнародных справах Каралеўскага таварыства Вялікабрытаніі; Д-р Жэром Дзюберы, д-р Мары-Лор Салес, дырэктар Жэнеўскага вышэйшага інстытута; Г-н Чор Фарн Лі, Цэнтр стратэгічнага будучага, офіс прэм'ер-міністра, Сінгапур; Барэнд Монс і доктар Сайман Ходсан, Камітэт па дадзеных (CoDATA); Прафесар Юко Хараяма, Японія; прафесар Рэмі Квірыён, прэзідэнт INGSA; Доктар Клэр Крэйг, Оксфардскі ўніверсітэт і былы кіраўнік аддзела прагназавання, Дзяржаўнае ўпраўленне навукі; і прафесар Ёшуа Бенгіа, Навукова-кансультатыўны савет Генеральнага сакратара ААН і Універсітэт Манрэаля. Падыход кантрольнага спісу быў у цэлым ухвалены, і была падкрэслена своечасовасць любых дзеянняў ISC.
Выява: adamichi на iStock