У своїй промові в посольстві США Гарріс заявив, що світ має почати діяти зараз, щоб вирішити «повний спектр» ризиків, пов’язаних зі штучним інтелектом, а не лише екзистенційні загрози, такі як масовані кібератаки чи біологічну зброю, розроблену за допомогою штучного інтелекту.
«Існують додаткові загрози, які також вимагають наших дій, загрози, які зараз завдають шкоди, і для багатьох людей також відчуваються екзистенційними», – сказала вона, посилаючись на випадок, коли пенсіонер відмовився від своєї медичної страховки через несправний алгоритм штучного інтелекту, або жінку, якій партнер-кривдник погрожував надсиланням фейкових фотографій.
Саміт з безпеки штучного інтелекту – це праця любові Сунака, колишнього банкіра, який захоплюється технологіями та хоче, щоб Велика Британія стала центром обчислювальних інновацій, і який окреслив саміт як початок глобальної розмови про безпечний розвиток штучного інтелекту.
Гарріс має бути присутнім на саміті в четвер, приєднавшись до урядовців з понад двох десятків країн, включаючи Канаду, Францію, Німеччину, Індію, Японію, Саудівську Аравію та Китай, яких запросили через протести деяких членів правлячої Консервативної партії Сунака.
Підписання країнами угоди, яка отримала назву Блетчлійська декларація, стало досягненням, навіть якщо вона містить мало деталей і не пропонує способу регулювання розвитку штучного інтелекту. Країни зобов'язалися працювати над досягненням «спільної згоди та відповідальності» щодо ризиків, пов'язаних зі штучним інтелектом, та провести низку подальших зустрічей. Південна Корея проведе міні-віртуальний саміт зі штучного інтелекту через шість місяців, а через рік – очний у Франції.
Заступник міністра науки і технологій Китаю У Чжаохуей заявив, що технологія штучного інтелекту є «невизначеною, незрозумілою та не має прозорості».
«Це несе ризики та виклики в галузі етики, безпеки, конфіденційності та справедливості. Його складність стає дедалі складнішою», – сказав він, зазначивши, що минулого місяця президент Китаю Сі Цзіньпін започаткував Глобальну ініціативу країни щодо управління штучним інтелектом.
«Ми закликаємо до глобальної співпраці для обміну знаннями та забезпечення громадськості доступом до технологій штучного інтелекту на умовах відкритого коду», – сказав він.
Генеральний директор Tesla Ілон Маск також планує обговорити штучний інтелект із Сунаком у розмові, яка буде транслюватися в четвер увечері. Технологічний мільярдер був серед тих, хто підписав заяву на початку цього року, в якій закликав до тривоги щодо небезпек, які штучний інтелект становить для людства.
Президент Європейської комісії Урсула фон дер Ляєн, Генеральний секретар Організації Об'єднаних Націй Антоніу Гутерріш та керівники американських компаній зі штучного інтелекту, таких як Anthropic, DeepMind та OpenAI від Google, а також впливові вчені-комп'ютерники, такі як Йошуа Бенхіо, один із «хрещених батьків» штучного інтелекту, також присутні на зустрічі в Блетчлі-парку, колишній надсекретній базі для дешифрувальників часів Другої світової війни, яка вважається місцем народження сучасних обчислень.
Учасники зазначили, що формат зустрічі за закритими дверима сприяє здоровій дискусії. Неформальні зустрічі допомагають зміцнити довіру, – сказав Мустафа Сулейман, генеральний директор Inflection AI.
Тим часом, на офіційних обговореннях «люди змогли зробити дуже чіткі заяви, і саме тут ви бачите значні розбіжності як між країнами півночі та півдня, так і між країнами, які більше підтримують відкрите програмне забезпечення, і менше його підтримують», – сказав Сулейман журналістам.
Системи штучного інтелекту з відкритим кодом дозволяють дослідникам та експертам швидко виявляти проблеми та вирішувати їх. Але недоліком є те, що після випуску системи з відкритим кодом «будь-хто може використовувати її та налаштовувати для зловмисних цілей», – сказав Бенджіо в кулуарах зустрічі.
«Існує ця несумісність між відкритим кодом та безпекою. То як нам із цим боротися?»
Тільки уряди, а не компанії, можуть захистити людей від небезпек штучного інтелекту, заявив Сунак минулого тижня. Однак він також закликав не поспішати з регулюванням технології штучного інтелекту, заявивши, що спочатку її потрібно повністю зрозуміти.
Натомість, Гарріс наголосив на необхідності вирішення поточних проблем, зокрема «соціальної шкоди, яка вже відбувається, такої як упередженість, дискримінація та поширення дезінформації».
Вона вказала на виконавчий указ президента Джо Байдена цього тижня, який встановлює запобіжні заходи щодо штучного інтелекту, як доказ того, що США є прикладом розробки правил для штучного інтелекту, які працюють в суспільних інтересах.
Гарріс також закликав інші країни приєднатися до підтриманого США зобов'язання дотримуватися «відповідального та етичного» використання штучного інтелекту для військових цілей.
«Президент Байден і я вважаємо, що всі лідери… мають моральний, етичний та соціальний обов’язок забезпечити впровадження та розвиток штучного інтелекту таким чином, щоб захистити громадськість від потенційної шкоди та гарантувати, що кожен зможе користуватися його перевагами», – сказала вона.
Час публікації: 21 листопада 2023 р.