Шлях, який ми обираємо: Як Штучний Інтелект впливає на нас вже. Сьогодні
Якось я отримала електронного листа, який зачепив мене до глибини душі. Незнайомець написав, що моя робота в галузі штучного інтелекту призведе до кінця людства. Справа в тому, що зізнаюся, це збентежило, але й змусило глибше задуматися. Штучний інтелект – це справді гаряча тема сьогодення. Він у заголовках ледь не щодня. Справа в тому, що інколи завдяки захопливим відкриттям, як-от нові молекули для медицини. Чи через епатажні образи, як-от загалом, Папа Римський у білому пуховику. Насправді, насправді, але часом ці заголовки сповнені тривоги: чат-боти, що радять розлучатися, або ж програми для планування харчування, які пропонують рецепти з використанням хлорного газу. Насправді, на тлі скажімо, цього лунають розмови про сценарії кінця світу, екзистенційні ризики та сингулярність.
Як дослідник, що вивчає вплив штучного інтелекту на суспільство, щось на зразок. Я не можу передбачити майбутнє на 10 чи 20 років. Безумовно, але я знаю напевно, що вже зараз відбуваються речі, які не можна ігнорувати. Штучний інтелект – це не ізольована система, він, десь так. Вплітається в тканину суспільства, впливаючи на людей та планету. Моделі штучного інтелекту можуть сприяти зміні клімату, їхні навчальні дані використовують твори. Митців та авторів без їхньої згоди, а їхнє розгортання може дискримінувати цілі спільноти. Дивно,
наприклад,
Настав час почати відстежувати ці наслідки. Нам потрібна прозорість, відкритість та інструменти, які допоможуть людям краще розуміти штучний інтелект. Сподіваюся, майбутні покоління моделей штучного інтелекту будуть більш надійними, стійкими та, можливо, менш схильними до. Ну, ви розумієте.
Давайте почнемо зі сталого розвитку. Хмара, скажімо, в якій живуть моделі штучного інтелекту, насправді. Складається з металу, пластику та величезної кількості енергії. І кожен запит до моделі штучного інтелекту має свою ціну для планети. Більше того, дивно,
Минулого року я брала участь в ініціативі. BigScience, яка об’єднала тисячу дослідників з усього світу для. Безумовно, створення Bloom, першої відкритої великої мовної моделі, схожої на ChatGPT, але з акцентом на етику, прозорість та згоду. Насправді, дослідження, яке я очолювала, показало, що лише навчання Bloom використало стільки ж енергії, скільки 30 будинків за цілий рік, і викинуло 25 тонн вуглекислого газу. Це все одно, що п’ять разів об’їхати Землю на автомобілі. Лише щоб хтось уявіть собі, використав цю модель для розповіді жарту “тук-тук”.
Можливо, це не здається великою проблемою. Але інші подібні великі мовні моделі, такі як GPT-3, викидають у 20 разів більше вуглецю. Проблема в тому, що технологічні компанії не вимірюють в принципі, ці показники і не розкривають їх, в такому дусі. Тож це, ймовірно, лише верхівка айсберга, хай і танучого.
В останні роки моделі штучного інтелекту стрімко збільшувалися в розмірах, адже поточна тенденція в штучному інтелекті зводиться до принципу “чим більше, тим краще”. Більше того, безумовно, великі мовні моделі, зокрема, зросли в 2000 разів за останні п’ять років. І, звісно ж, їхні екологічні витрати також зростають. Моя остання робота показала, що заміна меншої, ефективнішої моделі на більшу мовну модель. Призводить до збільшення викидів вуглецю в 14 разів для виконання того ж самого завдання. Наприклад, для розповіді того ж самого жарту “тук-тук”. І оскільки ми впроваджуємо ці моделі в мобільні телефони. Пошукові системи, розумні холодильники та колонки, екологічні витрати швидко накопичуються.
Замість того, щоб зосереджуватися на якихось майбутніх екзистенційних ризиках, давайте поговоримо про. Простіше кажучи, поточні, відчутні наслідки та інструменти, які ми можемо створити для їх вимірювання та пом’якшення. Я допомогла створити CodeCarbon, інструмент, який працює паралельно з кодом навчання штучного інтелекту, знаєте, щоб оцінити кількість споживаної енергії та кількість викидів вуглецю. Використання подібного інструменту може допомогти нам зробити усвідомлений вибір, наприклад, обрати одну модель замість іншої, оскільки. Вона більш стійка, або розгорнути моделі штучного інтелекту. На відновлюваній енергії, що може значно зменшити їхні викиди. Тобто,
Але давайте поговоримо про інші речі, адже крім сталого розвитку, штучний інтелект має й інші наслідки. Наприклад, художникам і авторам дуже важко довести, що їхні життєві. Роботи були використані для навчання моделей штучного інтелекту без їхньої згоди. Звичайно, а якщо ви хочете подати позов до суду, вам, як правило, потрібні докази, чи не так? Тому Spawning. Ai, організація, заснована художниками, створила чудовий інструмент під назвою “Have I Been Trained? Цікаво, “. Насправді, він дає змогу шукати в цих масивних наборах даних, щоб побачити, що вони мають про вас.
Зізнаюся, мені було цікаво перевірити. Фактично, я пошукала в LAION-5B, величезному наборі даних зображень і тексту, чи є там якісь мої зображення. Два перші зображення – це я з подій, на яких я виступала. Насправді, але решта зображень – це не я. Ймовірно, це скажімо, інші жінки на ім’я Саша, які розміщують свої фотографії в Інтернеті. Це, мабуть, пояснює, чому, коли я прошу модель генерування зображень створити. Фотографію жінки на ім’я Саша, найчастіше я отримую зображення моделей у бікіні. Іноді у них дві руки, іноді три, але вони рідко одягнені.
Хоча для таких людей, як ви і я, пошук у. Цих наборах даних може бути цікавим, для художників, як-от Карла Ортіс. Насправді, це надає дивіться, важливі докази слухайте, того, що її життєва робота, її. Твори мистецтва, була використана для навчання моделей штучного інтелекту без її згоди. Вона та ще двоє митців використали це як доказ для подання колективного позову. Насправді, до суд
у проти компаній, що займаються штучним інтелектом, за порушення авторських прав. І зовсім нещодавно Spawning. Ai співпрацювала з Hugging Face, компанією, в якій я працюю. Для створення механізмів згоди та відмови для створення цих наборів даних. Адже твори мистецтва, створені людьми, не повинні бути типу, шведським столом для навчання моделей штучного інтелекту, в такому дусі.
Останнє, про що я хочу поговорити, – це упередження. Ви, напевно, багато про це чуєте. Формально кажучи, це коли моделі штучного інтелекту кодують патерни. До речі, простіше кажучи, та переконання, які можуть представляти стереотипи, расизм або сексизм.
Одна з моїх героїнь, доктор Джой Буоламвіні, відчула це на собі, коли зрозуміла, що системи штучного інтелекту навіть не розпізнають її обличчя, якщо на ній немає маски білого кольору. Цікаво, заглиблюючись, вона виявила, що загальні системи розпізнавання облич працюють значно гірше для кольорових жінок, ніж для білих чоловіків. До речі, і коли упереджені моделі, як-от ця, розгортаються в правоохоронних органах, це може призвести до. Неправдивих звинувачень, навіть до незаконного ув’язнення, яке ми бачили на прикладі багатьох людей останніми місяцями. Наприклад, Порчу Вудрафф було неправомірно звинувачено у викраденні автомобіля на. Восьмому місяці вагітності, оскільки система штучного інтелекту помилково ідентифікувала її.
На жаль, ці системи є чорними скриньками, і навіть їхні творці не можуть точно сказати, чому вони працюють так, як вони працюють. Наприклад, для систем генерування зображень, якщо вони використовуються в таких контекстах, як створення фоторобота на основі опису злочинця, вони беруть усі ці упередження. Та випльовують їх на такі терміни, як небезпечний злочинець, терорист або член. Банди, що, звичайно, є надзвичайно небезпечним, коли ці інструменти розгортаються в суспільстві.
Щоб краще зрозуміти ці інструменти, я створила інструмент під назвою Stable. Bias Explorer, який дає змогу досліджувати упередження моделей генерування зображень через призму професій. Спробуйте уявити собі вченого. Цікаво, що ви бачите? Багато чого схожого, чи не так? Чоловіки в окулярах і лабораторних халатах. І жоден з них не схожий на мене.
Ми вивчили всі ці різні моделі генерування зображень і виявили багато чого схожого: значне представництво білошкірих і чоловіків. У всіх 150 професіях, які ми розглядали, навіть у порівнянні з реальним світом, за даними Бюро статистики праці США. Очевидно, ці моделі показують юристів як чоловіків, а генеральних директорів – як чоловіків, майже в 100 відсотках випадків, хоча ми всі знаємо, що не всі вони білі чоловічої статі, якось так.
На жаль, мій інструмент ще не був використаний для написання законодавчих актів. Але нещодавно я представила його на заході ООН про гендерні упередження як приклад того, як ми можемо створювати інструменти для людей з усіх верств суспільства, навіть для тих, хто не знає, як кодувати, щоб взаємодіяти з ШІ та краще його розуміти. Ми використовуємо професії, але ви можете використовувати будь-які терміни, які вас цікавлять. Справа в тому, що
Оскільки ці моделі розгортаються, скажімо, вплітаються в саму тканину наших суспільств, у наші мобільні телефони, наші стрічки соціальних мереж, навіть у нашу. Судову систему та нашу економіку, дуже важливо, щоб ШІ залишався доступним, щоб ми знали, як він працює і коли він не працює. Немає єдиного рішення для таких складних речей, як упередження, авторське право або зміна клімату. Але, створюючи інструменти для вимірювання впливу ШІ, ми можемо почати отримувати уявлення про те, наскільки вони погані, і почати вирішувати їх по ходу. Почати створювати запобіжники для захисту суспільства та планети.
Як тільки ми отримаємо цю інформацію, компанії зможуть використовувати її, щоб типу, сказати: “Гаразд, ми оберемо цю модель, тому що вона більш стійка, цю модель, тому що вона поважає авторське право”, щось на зразок. Законодавці, яким дуже потрібна інформація для написання законів, можуть використовувати дивіться, ці інструменти для. Розробки типу, нових скажімо, механізмів регулювання або управління ШІ, коли він буде розгортатися в суспільстві. А користувачі, такі як ви і я, можуть використовувати цю інформацію для вибору моделей ШІ, яким ми можемо довіряти, щоб вони не спотворювали нас і не зловживали нашими даними.
А що я відповіла на той електронний лист. В якому йшлося про те, що моя робота знищить людство? Щоб було ясно, я сказала, що зосередження на майбутніх екзистенційних ризиках. ШІ відволікає увагу від його поточних, дуже відчутних. Цікаво, наслідків та роботи, яку ми повинні робити прямо зараз, або навіть вчора, для зменшення цих наслідків. Так, ШІ рухається швидко, але це ще не доконаний факт. Щоб було ясно, ми будуємо дорогу, йдучи нею, і ми можемо. Колективно вирішити, в якому напрямку ми хочемо рухатися разом.