Коли фінансування бурхливо надходить на розробку AGI, дослідники з Кембриджу зазначають, що людство все ще не може перевірити, чи має штучний інтелект свідомість, закликаючи зберігати скептицизм до того, як регуляція буде послаблена.
(попередня інформація: як у епоху ШІ за допомогою Vibe Coding дозволити Angent стежити за ринками вночі )
(Додаткова інформація: Альтман говорить про зростаючі труднощі OpenAI: обчислювальна потужність є найбільшим обмеженням, а зростання доходів залежить від постійного подвоєння кількості графічних карт.)
Зміст статті
Дилема чорної скриньки: дослідження свідомості ще не розпочато
Свідомість та сприйняття: два змішані поняття
Емоційна проекція та неправильне розміщення ресурсів
Регуляторна пустота та гра відповідальності
Глобальні кошти спрямовуються на розробку AGI з небаченою раніше швидкістю, технологічні гіганти та венчурні інвестори змагаються у збільшенні інвестицій, від обчислювальної потужності, моделей до кадрів, розгортаючи всебічну гонку озброєнь. Ринок ставить на те, що загальний штучний інтелект змінить структуру продуктивності та повернення капіталу.
Проте на початку цього місяця філософ Кембриджського університету Том Макклендан у своїй статті в журналі «Mind & Language» наголосив, що наразі наука майже не має доказів, що штучний інтелект має свідомість, і в майбутньому, можливо, це також не буде можливим, людям потрібно подумати про розподіл ресурсів.
Якщо ми випадково створимо свідомий або чутливий ШІ, ми повинні бути обережними, щоб уникнути завдання шкоди.
Але ставитися до чогось, що насправді є лише тостером, як до свідомої істоти, в той час як ми завдаємо величезної шкоди справжнім свідомим生命м у реальному світі, здається, також є величезною помилкою.
Дилема чорного ящика: дослідження свідомості ще не розпочато
McClelland зазначає, що людство навіть не розгадало, як наш мозок перетворює нейронну активність на суб'єктивний досвід, не кажучи вже про аналіз трильйонів параметрів, що складають великі мовні моделі.
Поточні функціоналісти вважають, що якщо обчислювальна складність достатня, високий рівень свідомості природно виникне; біологічніEssentialists вважають, що свідомість є продуктом вуглецевого життя. Обидві сторони не мають доказів, суперечка схожа на стрибок віри в припущення.
Свідомість і здатність сприйняття: два поняття, які плутають
У бізнесовій рекламі компанії часто змішують “свідомість” та “сприйняття”. McClelland зазначає, що свідомість лише вказує на обробку та реакцію на зовнішні повідомлення; сприйняття ж охоплює радість і біль, впливаючи на моральний статус.
Він нагадав, що якщо ШІ є лише обчислювальною системою, етичні ризики обмежені; але якщо майбутні моделі матимуть сприйнятливість, людству потрібно буде переосмислити межі відповідальності.
Справжнім ключем є здатність сприймати. Якщо машина не відчуває болю, людям насправді не потрібно турбуватися про її добробут.
Емоційна проекція та неправильне розміщення ресурсів
Щоб підвищити залученість користувачів, багато технологічних компаній наділяють чат-ботів гуманізованим тоном, спонукаючи емоційну проекцію.
McClelland називає це «екзистенційною токсичністю», оскільки суспільство може через це неправильно розподілити ресурси: така спекуляція навколо свідомості штучного інтелекту має етичне значення для розподілу дослідницьких ресурсів.
Все більше доказів вказує на те, що креветки можуть відчувати біль, проте щороку ми вбиваємо близько п'ятисот мільярдів креветок.
Визначити, чи має креветка свідомість, безумовно, важко, але це набагато легше, ніж перевірити свідомість штучного інтелекту…
Регуляторна вакуум та гра відповідальності
У контексті дерарегуляції право тлумачення питання «Чи має ШІ душу» легко потрапляє під контроль бізнесу. Коли це необхідно для маркетингу, компанії можуть стверджувати, що модель має свідомість; коли система дає збій, викликаючи шкоду, вони можуть стверджувати, що продукт лише інструмент, намагаючись уникнути відповідальності. McClelland закликає законодавців створити єдину тестову рамку, щоб провести чітку межу між ризиками та інноваціями.
Капітальний ринок, можливо, готує червоний килим для “пробудження AGI”, але до того, як наука зможе підтвердити здатність AI до сприйняття, активне визнання незнання та підтримка обережної дистанції, можливо, є раціональним вибором.
!
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Філософ Кембриджського університету: ми, можливо, ніколи не дізнаємося, чи має ШІ свідомість.
Коли фінансування бурхливо надходить на розробку AGI, дослідники з Кембриджу зазначають, що людство все ще не може перевірити, чи має штучний інтелект свідомість, закликаючи зберігати скептицизм до того, як регуляція буде послаблена. (попередня інформація: як у епоху ШІ за допомогою Vibe Coding дозволити Angent стежити за ринками вночі ) (Додаткова інформація: Альтман говорить про зростаючі труднощі OpenAI: обчислювальна потужність є найбільшим обмеженням, а зростання доходів залежить від постійного подвоєння кількості графічних карт.)
Зміст статті
Глобальні кошти спрямовуються на розробку AGI з небаченою раніше швидкістю, технологічні гіганти та венчурні інвестори змагаються у збільшенні інвестицій, від обчислювальної потужності, моделей до кадрів, розгортаючи всебічну гонку озброєнь. Ринок ставить на те, що загальний штучний інтелект змінить структуру продуктивності та повернення капіталу.
Проте на початку цього місяця філософ Кембриджського університету Том Макклендан у своїй статті в журналі «Mind & Language» наголосив, що наразі наука майже не має доказів, що штучний інтелект має свідомість, і в майбутньому, можливо, це також не буде можливим, людям потрібно подумати про розподіл ресурсів.
Дилема чорного ящика: дослідження свідомості ще не розпочато
McClelland зазначає, що людство навіть не розгадало, як наш мозок перетворює нейронну активність на суб'єктивний досвід, не кажучи вже про аналіз трильйонів параметрів, що складають великі мовні моделі.
Поточні функціоналісти вважають, що якщо обчислювальна складність достатня, високий рівень свідомості природно виникне; біологічніEssentialists вважають, що свідомість є продуктом вуглецевого життя. Обидві сторони не мають доказів, суперечка схожа на стрибок віри в припущення.
Свідомість і здатність сприйняття: два поняття, які плутають
У бізнесовій рекламі компанії часто змішують “свідомість” та “сприйняття”. McClelland зазначає, що свідомість лише вказує на обробку та реакцію на зовнішні повідомлення; сприйняття ж охоплює радість і біль, впливаючи на моральний статус.
Він нагадав, що якщо ШІ є лише обчислювальною системою, етичні ризики обмежені; але якщо майбутні моделі матимуть сприйнятливість, людству потрібно буде переосмислити межі відповідальності.
Емоційна проекція та неправильне розміщення ресурсів
Щоб підвищити залученість користувачів, багато технологічних компаній наділяють чат-ботів гуманізованим тоном, спонукаючи емоційну проекцію.
McClelland називає це «екзистенційною токсичністю», оскільки суспільство може через це неправильно розподілити ресурси: така спекуляція навколо свідомості штучного інтелекту має етичне значення для розподілу дослідницьких ресурсів.
Регуляторна вакуум та гра відповідальності
У контексті дерарегуляції право тлумачення питання «Чи має ШІ душу» легко потрапляє під контроль бізнесу. Коли це необхідно для маркетингу, компанії можуть стверджувати, що модель має свідомість; коли система дає збій, викликаючи шкоду, вони можуть стверджувати, що продукт лише інструмент, намагаючись уникнути відповідальності. McClelland закликає законодавців створити єдину тестову рамку, щоб провести чітку межу між ризиками та інноваціями.
Капітальний ринок, можливо, готує червоний килим для “пробудження AGI”, але до того, як наука зможе підтвердити здатність AI до сприйняття, активне визнання незнання та підтримка обережної дистанції, можливо, є раціональним вибором.
!