Країни на саміті у Великій Британії обіцяють боротися з потенційно «катастрофічними» ризиками ШІ

У своїй промові в посольстві США Гарріс сказав, що світ має почати діяти зараз, щоб усунути «повний спектр» ризиків штучного інтелекту, а не лише екзистенційні загрози, такі як масові кібератаки чи біозброя, розроблена штучним інтелектом.

«Існують додаткові загрози, які також вимагають наших дій, загрози, які зараз завдають шкоди і для багатьох людей також здаються екзистенційними», — сказала вона, посилаючись на літнього громадянина, який відмовився від свого плану медичного обслуговування через несправний алгоритм ШІ, або на жінку, якій погрожував образливий партнер із глибокими підробленими фотографіями.

Саміт з безпеки штучного інтелекту – це праця любові Сунака, колишнього банкіра, який закоханий у технології, який хоче, щоб Великобританія стала центром комп’ютерних інновацій, і назвав саміт початком глобальної дискусії про безпечний розвиток ШІ.

Харріс має відвідати саміт у четвер, приєднавшись до урядовців з понад двох десятків країн, включаючи Канаду, Францію, Німеччину, Індію, Японію, Саудівську Аравію — і Китай, запрошених через протести деяких членів правлячої Консервативної партії Сунака.

Змусити країни підписати угоду, яка отримала назву «Декларація Блетчлі», було досягненням, навіть якщо вона незначна щодо деталей і не пропонує способу регулювання розвитку ШІ.Країни пообіцяли працювати над «спільною угодою та відповідальністю» щодо ризиків штучного інтелекту та провести серію подальших зустрічей.Південна Корея проведе міні-віртуальний саміт зі штучного інтелекту через шість місяців, а через рік відбудеться особистий саміт у Франції.

Віце-міністр науки і технологій Китаю Ву Чжаохуей сказав, що технологія штучного інтелекту є «невизначеною, незрозумілою та непрозорою».

«Це створює ризики та виклики з питань етики, безпеки, конфіденційності та справедливості.Його складність виявляється», – сказав він, зазначивши, що президент Китаю Сі Цзіньпін минулого місяця запустив Глобальну ініціативу країни з управління ШІ.

«Ми закликаємо до глобальної співпраці, щоб обмінюватися знаннями та робити технології ШІ доступними для громадськості на умовах відкритого коду», — сказав він.

Генеральний директор Tesla Ілон Маск також планує обговорити ШІ з Сунаком у розмові, яка транслюватиметься ввечері в четвер.Технологічний мільярдер був серед тих, хто на початку цього року підписав заяву, яка б’є тривогу щодо небезпек, які несе ШІ для людства.

Президент Європейської комісії Урсула фон дер Ляєн, Генеральний секретар ООН Антоніо Гутерріш і керівники американських компаній штучного інтелекту, таких як Anthropic, Google DeepMind і OpenAI, а також впливові комп’ютерні вчені, такі як Йошуа Бенгіо, один із «хрещених батьків» штучного інтелекту, також присутні. зустріч у Блетчлі-парку, колишній надсекретній базі зламників часів Другої світової війни, яка вважається місцем народження сучасних комп’ютерів.

Учасники сказали, що формат закритої зустрічі сприяв здоровій дискусії.Неформальні зустрічі допомагають зміцнити довіру, сказав Мустафа Сулейман, генеральний директор Inflection AI.

Тим часом під час офіційних обговорень «люди змогли зробити дуже чіткі заяви, і саме тут ви бачите значні розбіжності як між країнами півночі, так і між південними (і) країнами, які більше виступають за відкрите програмне забезпечення і менше за відкрите джерело", - сказав Сулейман журналістам.

Системи ШІ з відкритим кодом дозволяють дослідникам і експертам швидко виявляти проблеми та вирішувати їх.Але недоліком є ​​те, що після випуску системи з відкритим кодом «будь-хто може використовувати її та налаштовувати для зловмисних цілей», — сказав Бенгіо в кулуарах зустрічі.

«Є така несумісність між відкритим кодом і безпекою.Тож як ми з цим впораємося?»

Минулого тижня Сунак заявив, що лише уряди, а не компанії, можуть убезпечити людей від небезпеки ШІ.Однак він також закликав не поспішати з регулюванням технології штучного інтелекту, заявивши, що спочатку її потрібно повністю зрозуміти.

Навпаки, Гарріс наголосив на необхідності вирішення проблеми тут і зараз, включаючи «соціальну шкоду, яка вже має місце, наприклад упередженість, дискримінація та поширення дезінформації».

Вона вказала на виконавчий указ президента Джо Байдена цього тижня, який встановлює гарантії штучного інтелекту, як доказ того, що США є прикладом у розробці правил для штучного інтелекту, які працюють в суспільних інтересах.

Гарріс також заохочував інші країни підписати зобов’язання, яке підтримує США, щодо «відповідального та етичного» використання ШІ у військових цілях.

«Ми з президентом Байденом віримо, що всі лідери … мають моральний, етичний і соціальний обов’язок переконатися, що ШІ запроваджується та розвивається таким чином, щоб захищати громадськість від потенційної шкоди та гарантувати, що кожен зможе користуватися його перевагами», – сказала вона. сказав.


Час публікації: 21 листопада 2023 р