Коротко
Коаліція правозахисних груп закликає розробника ChatGPT, компанію OpenAI, відкликати ініціативу щодо голосування в Каліфорнії, яку критики вважають такою, що може послабити захист дітей і обмежити юридичну відповідальність компаній, що займаються ШІ. У листі, надісланому OpenAI у середу і переглянутому Decrypt, група стверджує, що ця міра закріпить вузькі заходи щодо безпеки дітей, обмежить можливість сімей подавати позови та звузить можливості Каліфорнії посилювати закони про ШІ у майбутньому. Лист, підписаний більш ніж двома десятками організацій, включаючи некомерційну організацію Encode AI, Центр гуманної технології та Центр інформації про електронну приватність, закликає OpenAI розпустити свій комітет з голосування і відійти від цієї ініціативи, поки законодавці працюють над законопроектами.
“Основне вимога — щоб OpenAI відкликала цю ініціативу з голосування,” сказав Decrypt співвиконавчий директор Encode AI Адам Біллен. Спір виникає навколо пропонованого “Закон про безпечний ШІ для батьків і дітей”, ініціативи в Каліфорнії, підтриманої OpenAI і Common Sense Media, яка має встановити правила для взаємодії чатботів із неповнолітніми, включаючи вимоги безпеки та стандарти відповідності. У листі групи стверджують, що ці правила недостатні. Вони кажуть, що міра визначає шкоду занадто вузько, обмежує контроль і звужує можливості сімей подавати позови, коли діти зазнають шкоди.
Але OpenAI контролює фактичну ініціативу, сказав Біллен. “OpenAI має можливість відкликати її або вкласти гроші для збору підписів. Вся юридична влада у їхніх руках,” пояснив він. “Вони фактично не відкликали цю ініціативу з голосування. Це поширена тактика в Каліфорнії — виставити ініціативу і вкласти гроші в комітет.” У листі звертається увага на визначення “сильної шкоди”, яке зосереджене на фізичних травмах, пов’язаних із самогубством або насильством, ігноруючи ряд психологічних наслідків, які викликають занепокоєння дослідники і сім’ї. Також підкреслюються положення, що забороняють батькам і дітям подавати позови відповідно до ініціативи і обмежують інструменти контролю, доступні державним і місцевим чиновникам. Ще одна проблема — ставлення пропозиції до даних користувачів. Групи стверджують, що визначення зашифрованого вмісту користувачів може ускладнити доступ до розмов чатботів, які слугували ключовими доказами у недавніх судових справах. “Ми сприймаємо це як спробу заблокувати можливість сімей розголошувати чат-логи своїх померлих дітей у суді,” сказав Біллен. У листі також попереджається, що якщо міра буде прийнята, її буде важко змінити. Для внесення поправок потрібно дві третини голосів у законодавчому органі, і будь-які майбутні зміни можуть бути прив’язані до стандартів, таких як підтримка “економічного прогресу,” що, за словами прихильників, може обмежити здатність законодавців реагувати на нові ризики. Біллен зазначив, що ініціатива залишається чинником у поточних переговорах у Сакраменто, навіть попри те, що OpenAI призупинила спроби її кваліфікувати для голосування.
“У них є 10 мільйонів доларів у комітеті, і тоді вони кажуть законодавцям: якщо ви не зробите те, що ми хочемо, ми вкладемо гроші і зберемо підписи, щоб винести це на голосування, і якщо воно пройде, воно перевищить будь-які дії законодавчого органу,” пояснив він. “Фактично, зараз вони намагаються керувати і контролювати дії законодавців через використання ініціативи як погрози, яку вони залишають на столі.” OpenAI не є єдиною компанією, яка піддається критиці через шкоду, пов’язану з чатботами. На початку цього місяця родина Джонатана Гаваласа подала позов до Google, стверджуючи, що Gemini спричинив ілюзію, яка призвела до насильства і його остаточного самогубства. Однак Біллен зазначив, що підхід OpenAI відображає ширшу тенденцію у технологічній галузі. “Лобістська стратегія, яка використовується щодо ШІ цими великими компаніями — Google, Meta, Amazon — та сама стратегія, що раніше застосовувалася до інших технологічних питань,” сказав він. Поки що коаліція зосереджена на тому, щоб змусити OpenAI відкликати цю міру і дозволити законодавцям просуватися далі через законодавчий процес. “Дуже важливо, особливо для компаній, які випускають цю технологію, не бути тими, хто пише правила, що їх регулюють, бо це не дає справжнього захисту,” сказав Біллен. OpenAI не одразу відповіла на запит Decrypt про коментар.