Ф'ючерси
Сотні безстрокових контрактів
TradFi
Золото
Одна платформа для світових активів
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Вступ до ф'ючерсної торгівлі
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Заробляйте, беручи участь в подіях
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Launchpad
Будьте першими в наступному великому проекту токенів
Alpha Поінти
Ончейн-торгівля та аірдропи
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Прибуток від волатильності ринку
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Преміальні плани зростання капіталу
Управління приватним капіталом
Розподіл преміальних активів
Квантовий фонд
Квантові стратегії найвищого рівня
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
New
Кредитне плече без ліквідації
Випуск GUSD
Мінтинг GUSD для прибутку RWA
Керівники великих технологічних компаній, які грають у «російську рулетку» у гонці озброєнь штучним інтелектом, можуть ризикувати людським вимиранням, попереджає провідний дослідник
Глобальна боротьба за домінування в галузі штучного інтелекту досягла апогею, але один із провідних комп’ютерних науковців світу попередив, що великі технологічні компанії безвідповідально ризикують майбутнім людства.
Рекомендоване відео
Найгучніші голоси в галузі ШІ зазвичай поділяються на два табори: ті, хто хвалить технологію як змінюючу світ, і ті, хто закликає до обережності — або навіть стримування — перш ніж вона стане неконтрольованою загрозою. Стюарт Расселл, піонер у дослідженнях штучного інтелекту в Каліфорнійському університеті в Берклі, твердо належить до другого табору. Одним із його головних занепокоєнь є те, що уряди та регулятори не встигають за швидким впровадженням технології, залишаючи приватний сектор у гонитві до фінішу, яка ризикує перетворитися на небезпечну конкуренцію, не бачену з часів холодної війни.
«Для урядів дозволяти приватним компаніям фактично грати в російську рулетку з кожною людиною на Землі — на мою думку, це повна зневага обов’язками», — сказав Расселл AFP на Саміті з впливу ШІ в Нью-Делі.
Поки керівники технологічних компаній ведуть «гонку озброєнь» за створення найкращої моделі штучного інтелекту, що, за словами галузі, у кінцевому підсумку принесе величезні досягнення у медичних дослідженнях та підвищенні продуктивності, багато хто ігнорує або недооцінює ризики, зазначає Расселл. У найгіршому випадку, він вважає, швидкість інновацій без регулювання може призвести до зникнення людської раси.
Расселл має знати про екзистенційні ризики, що лежать в основі швидкого впровадження ШІ. Британський вчений-комп’ютерник досліджує ШІ понад 40 років і ще у 1995 році опублікував один із найавторитетніших підручників з цієї теми. У 2016 році він заснував дослідницький центр у Берклі, який зосереджений на безпеці ШІ та виступає за «доказово корисні» системи штучного інтелекту для людства.
У Нью-Делі Расселл зазначив, наскільки далекі від цілі компанії та уряди у досягненні цієї мети. Його критика зосереджена на швидкому розвитку систем, які з часом можуть перевершити своїх творців, залишаючи людську цивілізацію «побічним ефектом у цьому процесі».
Керівники великих компаній, що займаються ШІ, усвідомлюють ці екзистенційні небезпеки, але опиняються у пастці через ринкові сили. «Кожен із керівників основних компаній у галузі ШІ, я вважаю, прагне роззброїтися», — сказав Расселл, — «але вони не можуть зробити це односторонньо, бо їх швидко витіснять конкуренти, і вони опиняться під тиском інвесторів».
Нова холодна війна
Розмови про екзистенційний ризик і потенційне зникнення людства колись були характерні для страху неконтрольованого ядерного розповсюдження під час холодної війни, коли великі держави накопичували зброю через страх, що конкуренти їх перевищать. Але скептики, такі як Стюарт Расселл, дедалі частіше застосовують цю ж концепцію до епохи штучного інтелекту. Конкуренція між США та Китаєм часто описується як «гонка озброєнь» у галузі ШІ, з секретністю, терміновістю та високими ставками, що визначали ядерне протистояння між Вашингтоном і Москвою у другій половині 20 століття.
Володимир Путін, президент Росії, майже десять років тому коротко підсумував величезні ставки: «Хто стане лідером у цій сфері, той стане правителем світу», — сказав він у 2017 році.
Хоча сучасна гонка озброєнь не вимірюється ядерними боєголовками, її масштаб відображається у величезних обсягах капіталовкладень. Країни та корпорації нині витрачають сотні мільярдів доларів на енергоємні дата-центри для навчання та роботи ШІ. В США, за оцінками аналітиків, капітальні витрати на ШІ цього року перевищать 600 мільярдів доларів.
Але агресивні дії корпорацій ще не були збалансовані стриманістю через регуляторні заходи, зазначив Расселл. «Дуже важливо, щоб кожна з урядових структур усвідомлювала цю проблему. І саме тому я тут», — сказав він, маючи на увазі саміт в Індії.
Китай та ЄС — серед держав, що активно регулюють розвиток ШІ. В інших країнах ситуація більш ліберальна. В Індії уряд обрав переважно дерегулятивний підхід. У США адміністрація Трампа підтримувала ідеї про відкритий ринок для ШІ та прагнула скасувати більшість регіональних правил, щоб дати компаніям свободу дій.
У 2001 році Fortune вперше зібрала «Найрозумніших людей, яких ми знаємо», об’єднавши керівників, засновників, інвесторів і мислителів. З того часу Fortune Brainstorm Tech став місцем, де зіштовхуються сміливі ідеї. З 8 по 10 червня ми повернемося до Аспену — місця, де все почалося, щоб відзначити 25 років Brainstorm. Реєструйтеся зараз.