Шлях, який ми обираємо: Як Штучний Інтелект впливає на нас вже сьогодні
Якось я отримала електронного листа, який зачепив мене до глибини душі. Незнайомець написав, що моя робота в галузі штучного інтелекту призведе до кінця людства. Зізнаюся, це збентежило, але й змусило глибше задуматися. Штучний інтелект – це справді гаряча тема сьогодення. Він у заголовках ледь не щодня. Інколи завдяки захопливим відкриттям, як-от нові молекули для медицини, чи через епатажні образи, як-от Папа Римський у білому пуховику. Але часом ці заголовки сповнені тривоги: чат-боти, що радять розлучатися, або ж програми для планування харчування, які пропонують рецепти з використанням хлорного газу. На тлі цього лунають розмови про сценарії кінця світу, екзистенційні ризики та сингулярність.
Як дослідник, що вивчає вплив штучного інтелекту на суспільство, я не можу передбачити майбутнє на 10 чи 20 років. Але я знаю напевно, що вже зараз відбуваються речі, які не можна ігнорувати. Штучний інтелект – це не ізольована система, він вплітається в тканину суспільства, впливаючи на людей та планету. Моделі штучного інтелекту можуть сприяти зміні клімату, їхні навчальні дані використовують твори митців та авторів без їхньої згоди, а їхнє розгортання може дискримінувати цілі спільноти.
Настав час почати відстежувати ці наслідки. Нам потрібна прозорість, відкритість та інструменти, які допоможуть людям краще розуміти штучний інтелект. Сподіваюся, майбутні покоління моделей штучного інтелекту будуть більш надійними, стійкими та, можливо, менш схильними до… ну, ви розумієте.
Давайте почнемо зі сталого розвитку. Хмара, в якій живуть моделі штучного інтелекту, насправді складається з металу, пластику та величезної кількості енергії. І кожен запит до моделі штучного інтелекту має свою ціну для планети.
Минулого року я брала участь в ініціативі BigScience, яка об’єднала тисячу дослідників з усього світу для створення Bloom, першої відкритої великої мовної моделі, схожої на ChatGPT, але з акцентом на етику, прозорість та згоду. Дослідження, яке я очолювала, показало, що лише навчання Bloom використало стільки ж енергії, скільки 30 будинків за цілий рік, і викинуло 25 тонн вуглекислого газу. Це все одно, що п’ять разів об’їхати Землю на автомобілі, лише щоб хтось використав цю модель для розповіді жарту “тук-тук”.
Можливо, це не здається великою проблемою. Але інші подібні великі мовні моделі, такі як GPT-3, викидають у 20 разів більше вуглецю. Проблема в тому, що технологічні компанії не вимірюють ці показники і не розкривають їх. Тож це, ймовірно, лише верхівка айсберга, хай і танучого.
В останні роки моделі штучного інтелекту стрімко збільшувалися в розмірах, адже поточна тенденція в штучному інтелекті зводиться до принципу “чим більше, тим краще”. Великі мовні моделі, зокрема, зросли в 2000 разів за останні п’ять років. І, звісно ж, їхні екологічні витрати також зростають. Моя остання робота показала, що заміна меншої, ефективнішої моделі на більшу мовну модель призводить до збільшення викидів вуглецю в 14 разів для виконання того ж самого завдання. Наприклад, для розповіді того ж самого жарту “тук-тук”. І оскільки ми впроваджуємо ці моделі в мобільні телефони, пошукові системи, розумні холодильники та колонки, екологічні витрати швидко накопичуються.
Замість того, щоб зосереджуватися на якихось майбутніх екзистенційних ризиках, давайте поговоримо про поточні, відчутні наслідки та інструменти, які ми можемо створити для їх вимірювання та пом’якшення. Я допомогла створити CodeCarbon, інструмент, який працює паралельно з кодом навчання штучного інтелекту, щоб оцінити кількість споживаної енергії та кількість викидів вуглецю. Використання подібного інструменту може допомогти нам зробити усвідомлений вибір, наприклад, обрати одну модель замість іншої, оскільки вона більш стійка, або розгорнути моделі штучного інтелекту на відновлюваній енергії, що може значно зменшити їхні викиди.
Але давайте поговоримо про інші речі, адже крім сталого розвитку, штучний інтелект має й інші наслідки. Наприклад, художникам і авторам дуже важко довести, що їхні життєві роботи були використані для навчання моделей штучного інтелекту без їхньої згоди. А якщо ви хочете подати позов до суду, вам, як правило, потрібні докази, чи не так? Тому Spawning.ai, організація, заснована художниками, створила чудовий інструмент під назвою “Have I Been Trained?”. Він дає змогу шукати в цих масивних наборах даних, щоб побачити, що вони мають про вас.
Зізнаюся, мені було цікаво перевірити. Я пошукала в LAION-5B, величезному наборі даних зображень і тексту, чи є там якісь мої зображення. Два перші зображення – це я з подій, на яких я виступала. Але решта зображень – це не я. Ймовірно, це інші жінки на ім’я Саша, які розміщують свої фотографії в Інтернеті. Це, мабуть, пояснює, чому, коли я прошу модель генерування зображень створити фотографію жінки на ім’я Саша, найчастіше я отримую зображення моделей у бікіні. Іноді у них дві руки, іноді три, але вони рідко одягнені.
Хоча для таких людей, як ви і я, пошук у цих наборах даних може бути цікавим, для художників, як-от Карла Ортіс, це надає важливі докази того, що її життєва робота, її твори мистецтва, була використана для навчання моделей штучного інтелекту без її згоди. Вона та ще двоє митців використали це як доказ для подання колективного позову до суд
у проти компаній, що займаються штучним інтелектом, за порушення авторських прав. І зовсім нещодавно Spawning.ai співпрацювала з Hugging Face, компанією, в якій я працюю, для створення механізмів згоди та відмови для створення цих наборів даних. Адже твори мистецтва, створені людьми, не повинні бути шведським столом для навчання моделей штучного інтелекту.
Останнє, про що я хочу поговорити, – це упередження. Ви, напевно, багато про це чуєте. Формально кажучи, це коли моделі штучного інтелекту кодують патерни та переконання, які можуть представляти стереотипи, расизм або сексизм.
Одна з моїх героїнь, доктор Джой Буоламвіні, відчула це на собі, коли зрозуміла, що системи штучного інтелекту навіть не розпізнають її обличчя, якщо на ній немає маски білого кольору. Заглиблюючись, вона виявила, що загальні системи розпізнавання облич працюють значно гірше для кольорових жінок, ніж для білих чоловіків. І коли упереджені моделі, як-от ця, розгортаються в правоохоронних органах, це може призвести до неправдивих звинувачень, навіть до незаконного ув’язнення, яке ми бачили на прикладі багатьох людей останніми місяцями. Наприклад, Порчу Вудрафф було неправомірно звинувачено у викраденні автомобіля на восьмому місяці вагітності, оскільки система штучного інтелекту помилково ідентифікувала її.
На жаль, ці системи є чорними скриньками, і навіть їхні творці не можуть точно сказати, чому вони працюють так, як вони працюють. Наприклад, для систем генерування зображень, якщо вони використовуються в таких контекстах, як створення фоторобота на основі опису злочинця, вони беруть усі ці упередження та випльовують їх на такі терміни, як небезпечний злочинець, терорист або член банди, що, звичайно, є надзвичайно небезпечним, коли ці інструменти розгортаються в суспільстві.
Щоб краще зрозуміти ці інструменти, я створила інструмент під назвою Stable Bias Explorer, який дає змогу досліджувати упередження моделей генерування зображень через призму професій. Спробуйте уявити собі вченого. Що ви бачите? Багато чого схожого, чи не так? Чоловіки в окулярах і лабораторних халатах. І жоден з них не схожий на мене.
Ми вивчили всі ці різні моделі генерування зображень і виявили багато чого схожого: значне представництво білошкірих і чоловіків у всіх 150 професіях, які ми розглядали, навіть у порівнянні з реальним світом, за даними Бюро статистики праці США. Ці моделі показують юристів як чоловіків, а генеральних директорів – як чоловіків, майже в 100 відсотках випадків, хоча ми всі знаємо, що не всі вони білі чоловічої статі.
На жаль, мій інструмент ще не був використаний для написання законодавчих актів. Але нещодавно я представила його на заході ООН про гендерні упередження як приклад того, як ми можемо створювати інструменти для людей з усіх верств суспільства, навіть для тих, хто не знає, як кодувати, щоб взаємодіяти з ШІ та краще його розуміти. Ми використовуємо професії, але ви можете використовувати будь-які терміни, які вас цікавлять.
Оскільки ці моделі розгортаються, вплітаються в саму тканину наших суспільств, у наші мобільні телефони, наші стрічки соціальних мереж, навіть у нашу судову систему та нашу економіку, дуже важливо, щоб ШІ залишався доступним, щоб ми знали, як він працює і коли він не працює. Немає єдиного рішення для таких складних речей, як упередження, авторське право або зміна клімату. Але, створюючи інструменти для вимірювання впливу ШІ, ми можемо почати отримувати уявлення про те, наскільки вони погані, і почати вирішувати їх по ходу. Почати створювати запобіжники для захисту суспільства та планети.
Як тільки ми отримаємо цю інформацію, компанії зможуть використовувати її, щоб сказати: “Гаразд, ми оберемо цю модель, тому що вона більш стійка, цю модель, тому що вона поважає авторське право”. Законодавці, яким дуже потрібна інформація для написання законів, можуть використовувати ці інструменти для розробки нових механізмів регулювання або управління ШІ, коли він буде розгортатися в суспільстві. А користувачі, такі як ви і я, можуть використовувати цю інформацію для вибору моделей ШІ, яким ми можемо довіряти, щоб вони не спотворювали нас і не зловживали нашими даними.
А що я відповіла на той електронний лист, в якому йшлося про те, що моя робота знищить людство? Я сказала, що зосередження на майбутніх екзистенційних ризиках ШІ відволікає увагу від його поточних, дуже відчутних наслідків та роботи, яку ми повинні робити прямо зараз, або навіть вчора, для зменшення цих наслідків. Так, ШІ рухається швидко, але це ще не доконаний факт. Ми будуємо дорогу, йдучи нею, і ми можемо колективно вирішити, в якому напрямку ми хочемо рухатися разом.