Бързият напредък в областта на изкуствения интелект (AI), като например OpenAI’s ChatGPT, поддържан от Microsoft, усложнява усилията на правителствата да съгласуват законите, регулиращи използването на технологията. Повечето страни предприемат стъпки, които националните и международни управляващи органи трябва да прилагат, за да регулират инструментите за изкуствен интелект, съобщава Reuters.
Повече от 25 държави участваха в първата глобална среща на върха за безопасността на AI в Блечли Парк (Великобритания), включително САЩ и Китай, както и държави от ЕС. Вчера те подписаха “Декларация от Блечли”, в която се казва, че страните трябва да работят заедно и да установят общ подход по надзор.
Генералният секретар на ООН Антонио Гутериш на 26 октомври обяви създаването на 39-членен консултативен орган, съставен от ръководители на технологични компании, правителствени служители и академици, които ще се занимават с проблеми в международното управление на AI.
Съветът за сигурност на ООН проведе първата си официална дискусия относно AI през юли, разглеждайки военни и невоенни приложения, които „могат да имат много сериозни последици за глобалния мир и сигурност“, каза тогава Гутериш.
Мерки в ЕС
Европейските законодатели постигнаха съгласие на 24 октомври относно критична част от новите правила за изкуствен интелект, очертаващи видовете системи, които ще бъдат обозначени като „висок риск“, приближавайки се към по-широко споразумение относно знаковия закон за изкуствения интелект, който се очаква през декември.
Страните от G7 се споразумяха на 30 октомври за кодекс на поведение от 11 точки за фирмите, разработващи усъвършенствани AI системи, който „цели да насърчава безопасен, сигурен и надежден AI в световен мащаб“.
В редица еворпейски страни тази година започнаха разследвания срещу ChatGPT. Той беше временно забранен в Италия през март, но отново бе достъпен през април. Италианският орган за защита на данните планира да преразгледа AI платформите и да наеме експерти в тази област.
Службата за защита на личните данни на Полша заяви през септември, че разследва OpenAI по жалба, че ChatGPT нарушава законите на ЕС за защита на данните.
Френският орган за защита на личните данни също заяви през април, че разследва оплаквания относно ChatGPT.
Испанската агенция за защита на данните през април започна предварително разследване на потенциални нарушения на данните от ChatGPT.
Какво предприемат останалите страни?
Австралия ще накара търсачките да изготвят нови кодекси, за да се предотврати споделянето на материали за сексуално насилие над деца, създадени от AI.
Великобритания каза на срещата на върха, че ще утрои до 300 милиона паунда (364 милиона долара) финансирането си за „Изследователски ресурс за изкуствен интелект“, включващ два суперкомпютъра, които ще подкрепят изследванията за осигуряване на безопасност на напреднали модели на изкуствен интелект.
Премиерът Риши Сунак на 26 октомври обяви, че Великобритания ще създаде първия в света институт за безопасност на изкуствен интелект, за да „разбере на какво е способен всеки нов модел, изследвайки всички рискове – от социални вреди, като пристрастия и дезинформация, до най-екстремните рискове“.
През октомври Китай публикува предложени изисквания за сигурност за фирми, предлагащи услуги, задвижвани от генеративен AI, включително черен списък с източници, които не могат да се използват за обучение на AI модели. Страната издаде набор от временни мерки през август, изисквайки от доставчиците на услуги да представят оценки на сигурността и да получат разрешение, преди да пуснат масови продукти на AI.
САЩ ще създадат институт за безопасност на изкуствения интелект, който да оценява известните и възникващи рискове от така наречените „гранични“ модели на изкуствен интелект, каза министърът на търговията Джина Раймондо на 1 ноември по време на срещата на върха за безопасността на AI във Великобритания.
Президентът Джо Байдън издаде нова изпълнителна заповед на 30 октомври, за да изисква от разработчиците на AI системи, които представляват риск за националната сигурност, икономиката, общественото здраве или безопасността на САЩ, да споделят резултатите от тестовете за безопасност с правителството.
През септември Конгресът на САЩ проведе изслушвания и форум за AI с участието на изпълнителния директор на Meta Марк Зукърбърг и главния изпълнителен директор на Tesla Илон Мъск. Повече от 60 сенатори участваха в разговорите, по време на които Мъск призова за американски „рефер“ за AI.
Федералната търговска комисия на САЩ също така започна през юли разследване на OpenAI по твърдения, че е в противоречие със законите за защита на потребителите.
Япония очаква да въведе до края на 2023 г. регулации, които вероятно са по-близки до отношението на САЩ, отколкото строгите, планирани в ЕС.
Прочетете още:
Наследниците на ChatGPT: Хуманоидни роботи, адвокати и наука, управлявана от AI