Чи врятує штучний інтелект людство — або покінчить з ним?

Decrypt

Коротко

  • Онлайн-панель продемонструвала глибокий розкол між трансгуманістами та технологами щодо AGI.
  • Автор Еліезер Юдковський попередив, що сучасні системи штучного інтелекту “чорних ящиків” роблять зникнення неминучим результатом.
  • Макс Море стверджував, що затримка з розробкою AGI може коштувати людству найкращого шансу перемогти старіння та запобігти довгостроковій катастрофі.

Різкий розкол щодо майбутнього штучного інтелекту розгорівся цього тижня, коли четверо видатних технологів і трансгуманістів обговорювали, чи збереже людство створення штучного загального інтелекту, або AGI, чи знищить його. Панель, організована неприбутковою організацією Humanity+, зібрала одного з найгучніших “пророцьких” AI-екстремістів, Еліезера Юдковського, який закликав закрити розвиток передового штучного інтелекту, разом із філософом і футуристом Максом Море, обчислювальним нейробіологом Андресом Сандбергом та колишнім президентом Humanity+ Наташею Віта-Мор. Їхня дискусія виявила фундаментальні розбіжності щодо того, чи може AGI бути узгоджений з людським виживанням, або чи його створення зробить зникнення неминучим. Проблема “чорної скриньки”

Юдковський попередив, що сучасні системи штучного інтелекту є за своєю суттю небезпечними, оскільки їх внутрішні процеси прийняття рішень не можна повністю зрозуміти або контролювати. “Що б не було в “чорній скриньці”, воно, ймовірно, матиме схожі проблеми з поточною технологією,” попередив Юдковський. Він стверджував, що людство має перейти “дуже, дуже далеко від поточних парадигм”, перш ніж безпечно розвивати передовий штучний інтелект.  Загалом, штучний загальний інтелект (AGI) — це форма штучного інтелекту, яка може міркувати та навчатися у широкому спектрі завдань, а не бути створеною для однієї конкретної роботи, наприклад, генерації тексту, зображень або відео. AGI часто асоціюється з ідеєю технологічної сингулярності, оскільки досягнення такого рівня інтелекту може дозволити машинам покращувати себе швидше, ніж люди можуть наздогнати. Юдковський звернув увагу на аналогію “максимізатора скріпок”, популяризовану філософом Ніком Бостромом, щоб ілюструвати ризик. У цій гіпотетичній ситуації штучний інтелект перетворює всю доступну матерію у скріпки, посилюючи свою одержимість однією метою за рахунок людства. Додавання додаткових цілей, сказав Юдковський, не покращить безпеку суттєво.

Згадуючи назву своєї недавньої книги про AI, “Якщо хтось його створить, всі помруть,” він сказав: “Наша назва не така, ніби може вас вбити,” сказав Юдковський. “Наша назва — якщо хтось його створить, усі помруть.” Але Море оскаржив припущення, що крайня обережність є найкращим виходом. Він стверджував, що AGI може дати людству найкращий шанс подолати старіння та хвороби. “Найголовніше для мене — це те, що AGI може допомогти нам запобігти зникненню кожної людини через старіння,” заявив Море. “Ми всі помираємо. Ми йдемо до катастрофи, один за одним.” Він попередив, що надмірна стриманість може спонукати уряди до авторитарних контролів як єдиного способу зупинити розвиток AI у всьому світі. Сандберг зайняв позицію між двома таборами, описуючи себе як “більш оптимістичного”, але залишаючись більш обережним, ніж трансгуманістські оптимісти. Він згадував особистий досвід, коли майже використовував великий мовний модель для допомоги у розробці біологічної зброї, що він описав як “жахливий”. “Ми підходимо до точки, коли посилення зловмисних акторів також спричинить величезний безлад,” сказав Сандберг. Втім, він вважав, що часткова або “приблизна безпека” може бути досягнута. Він відкидав ідею, що безпека має бути ідеальною, щоб бути значущою, пропонуючи, що люди хоча б можуть погодитися на мінімальні спільні цінності, такі як виживання. “Якщо ви вимагаєте ідеальну безпеку, ви її не отримаєте. І це звучить дуже погано з цієї точки зору,” сказав він. “З іншого боку, я вважаю, що ми можемо мати приблизну безпеку. Це достатньо добре.” Скептицизм щодо узгодження Віта-Море критикувала широку дискусію про узгодження, стверджуючи, що ця концепція передбачає рівень консенсусу, якого навіть серед довготривалих співробітників не існує. “Ідея узгодження — це схема Поліанни,” сказала вона. “Вона ніколи не буде узгоджена. Я маю на увазі, навіть тут, ми всі хороші люди. Ми знаємо один одного десятиліттями, і ми не узгоджені.”

Вона описала заяву Юдковського про те, що AGI неминуче вб’є всіх, як “абсолютистське мислення”, яке не залишає місця для інших сценаріїв. “У мене проблема з широким твердженням, що всі помруть,” сказала вона. “Підходячи до цього як футурист і прагматичний мислитель, воно не залишає жодних наслідків, жодних альтернатив, жодних інших сценаріїв. Це просто грубе твердження, і мені цікаво, чи відображає воно якусь форму абсолютистського мислення.” Обговорення включало дебати щодо того, чи може тісніша інтеграція між людьми та машинами зменшити ризик, який створює AGI — щось, що раніше пропонував генеральний директор Tesla Ілон Маск. Юдковський відкинув ідею злиття з AI, порівнюючи її з “спробою злиття з тостером.” Сандберг і Віта-Море стверджували, що з ростом здатностей AI людям потрібно буде більш тісно інтегруватися або зливатися з ними, щоб краще справлятися з пост-AGI світом. “Ця вся дискусія — це перевірка реальності того, ким ми є як людські істоти,” сказала Віта-Море.

Переглянути оригінал
Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.
Прокоментувати
0/400
Немає коментарів