OpenAI: Зрада місії? 10 ключових моментів, які ви повинні знати
Привіт, народ! Кейсі Байт на зв’язку. Сьогодні ми зануримося у серйозну драму, що розгортається в OpenAI. Якщо ви не в курсі (що малоймовірно, якщо ви стежите за ІТ), то мова піде про те, як OpenAI, піонери у галузі штучного інтелекту, можуть втратити свій оригінальний дух заради… ну, грошей.
Нещодавно було опубліковано відкритий лист під назвою “Не для приватної вигоди”, підписаний десятками колишніх співробітників OpenAI. Цей лист звертається до Генеральних прокурорів Каліфорнії та Делаверу із закликом заблокувати заплановану реструктуризацію OpenAI у комерційну організацію. Автори аргументують, що такий крок порушить первинну місію некомерційної організації: забезпечити, щоб AGI (загальний штучний інтелект) приносив користь усьому людству, а не служив приватним інтересам.
Давайте розберемо 10 ключових пунктів, які допоможуть вам розібратися в цій складній історії. Готові? Поїхали!
1. Зрада фундаментального принципу
Почнемо з основ. OpenAI було створено саме тому, що засновники вважали, що розробка AGI виключно заради прибутку (як це, на їхню думку, робив Google) є надзвичайно небезпечною. Їхній некомерційний статус спочатку мав на меті гарантувати, що рішення пріоритезують благо людства, а не просто гроші.
Основна ідея проста:
- Оригінальна філософія: Штучний інтелект, розроблений для блага всіх, а не заради прибутку.
- Тепер: Зміна структури, де прибуток стає важливим фактором.
- Суть: Повний переворот ідеї, що лежить в основі OpenAI.
Ось цитата з самого початку, яка підкреслює їхні наміри:
“Наша мета – розвивати цифровий інтелект таким чином, щоб це принесло найбільшу користь людству в цілому, без обмежень у необхідності генерувати фінансову віддачу. Оскільки наші дослідження вільні від фінансових зобов’язань, ми можемо краще зосередитися на позитивному впливі на людину.”
Грег Брокман, ще один з ключових членів команди, також підкреслював етичну складову. Його цитата: “На етичному фронті це дійсно важливо для моєї організації. Ось причина, чому ми існуємо. Коли справа доходить до пільг, хто володіє цією технологією, кому вона дістанеться, куди підуть гроші, ми думаємо, що вона належить усім.”
Тож, перехід до комерційної моделі стане зрадою цих основоположних принципів.
2. Масовий перерозподіл багатства, потенційно майже нескінченного
AGI – це технологія, яка обіцяє створити неймовірне багатство. Оригінальна структура з обмеженим прибутком була розроблена таким чином, щоб це багатство поверталося до некомерційної організації, тобто до людства, а не до приватних інвесторів.
Ось як це працювало:
- Мета: Щоб надзвичайні прибутки від AGI діставалися всім.
- Тепер: Видалення обмеження прибутків – для задоволення інвесторів.
- Наслідок: Астрономічні прибутки від AGI можуть піти невеликій групі акціонерів.
Цитую Сема Альтмана: “Проблема з AGI, зокрема, полягає в тому, що якщо ми будемо успішними, і ми спробуємо, можливо, ми зможемо захопити [світловий конус] всієї майбутньої цінності у всесвіті, і це точно не підходить, щоб це отримала одна група інвесторів.”
Зміни у структурі можуть дозволити інвесторам отримати необмежену вигоду від своїх інвестицій. Це потенційно може призвести до перерозподілу багатства: від людства в цілому до обмеженого кола осіб.
3. Втрата юридичної підзвітності та громадського контролю
Коли OpenAI є некомерційною організацією, державні чиновники юридично зобов’язані контролювати, щоб OpenAI дотримувалася своєї місії.
- Зараз: Комерційні організації мають набагато менше громадського контролю.
- PBC (Публічно Вигідна Корпорація): Хоча PBC має заявлені суспільні переваги, основне юридичне право на судове переслідування ради переходить до акціонерів.
- Наслідок: Ефективні важелі впливу на компанію втрачаються.
У разі переходу до комерційної структури, громадський контроль значно зменшиться. Основним інтересом для акціонерів стане фінансова віддача, а не благо суспільства. Чиновники втратять ключовий інструмент забезпечення виконання місії.
4. Право власності на AGI: кому дістанеться контроль?
Один з оригінальних пунктів у статуті OpenAI чітко вказував: якщо вони створять справжній AGI, то технологія належатиме некомерційній організації, гарантуючи, що нею управляють на благо людства.
- Оригінал Якщо створимо AGI – він належить некомерційній організації.
- Перебудова Формально AGI може належати комерційній компанії та її інвесторам.
- Висновок Це означає, що основні інвестори отримають необмежений доступ до потужної технології.
Тож питання: хто буде володіти та контролювати AGI? Досі немає жодного публічного коментаря від OpenAI щодо цього питання. Але з великою імовірністю, AGI належатиме OpenAI та її інвесторам. Існують повідомлення, що OpenAI та Microsoft обговорюють скасування обмеження доступу Microsoft до технологій ШІ.
5. Різка зміна позиції Сема Альтмана
У 2023 році Сем Альтман дав свідчення Конгресу США, підкреслюючи важливість контролю некомерційної організації, обмеження прибутків та інших ключових функцій управління, які забезпечують, щоб OpenAI залишалася зосередженою на місії.
- Травень 2023: Альтман підтримує обмеження OpenAI.
- Вересень 2024: Ті ж самі обмеження тепер описуються як перешкоди.
- Підтекст: “Швидше, більше грошей!”
Менше ніж через два роки він прагне усунути ці самі засоби захисту, представляючи їх як перешкоди… Це викликає серйозні питання щодо мотивації реструктуризації. Що ж змінилося? Цей різкий розворот, звісно, викликає питання.
6. Зрада зобов’язання “зупинитись та допомогти”
У статуті OpenAI було зобов’язання: Якщо інша безпечна та обережна група наблизиться до створення AGI, OpenAI спочатку припинить конкуренцію та допоможе їм, щоб запобігти безрозсудній гонці до розгортання потенційно небезпечної технології.
Розшифровка:
- Усталений принцип: Якщо інша організація буде близька до мети AGI, OpenAI має допомогти їй.
- В реальності: Зміни, пов’язані з комерціалізацією, можуть змусити компанію забути про принципи.
- Занепокоєння: Комерційні засади та конкуренція можуть ігнорувати це зобов’язання.
У поточному контексті “перегонів ШІ”, дуже ймовірно, що новий комерційний устрій, керований конкурентним тиском, може проігнорувати цю важливу гарантію безпеки. Хто ж погодиться добровільно зупинитися і допомогти конкурентам, якщо мова йде про такий потенційно важливий ресурс?
7. Контроль над AGI може бути ціннішим, ніж будь-що інше
AGI може принести незліченні багатства та змінити світ. Обмежена кількість людей контролюватиме цю технологію, матиме владу над нею, що стане ключовим аргументом для зацікавленості інвесторів у цій сфері.
8. Використання благодійних пожертвувань не за цільовим призначенням
OpenAI була заснована на основі благодійних пожертвувань. Ці кошти повинні були бути використані для створення AGI на благо людства.
- Закон: Благодійні внески повинні використовуватися виключно за призначенням.
- Проблема: Гроші, призначені для технології, що приносить користь людству, можуть бути використані для комерційної діяльності.
- Наслідок: Порушення первісної обіцянки.
Тепер же йдеться про комерційну компанію, що потенційно є порушенням обіцянки, даної тим, хто пожертвував гроші.
9. Тиск інвесторів та їхні вимоги
Для того, щоб виправдати реструктуризацію, OpenAI посилається в основному на вимоги інвесторів. Їм треба спростити структуру капіталу, а також зазначають про нерозуміння ринком їх обмежень щодо прибутків.
- Проблема: Інвесторам незрозумілі обмеження прибутків OpenAI.
- Рішення: Реструктуризація та перехід до комерційної структури.
- Наслідок: Місія може бути зміщена для задоволення потреб інвесторів.
Необхідність задоволення вимог інвесторів може змусити OpenAI змінити свої цілі.
10. Високі ризики та потенційні труднощі
OpenAI сама визнає, що AGI пов’язаний з серйозними ризиками зловживань, трагічних випадків та збоїв у суспільстві.
- Важливо: Обмеження ризиків є важливим фактором.
- Проблема: Процеси тестування можуть бути недостатньо ретельними.
- Результат: Зменшення безпеки для досягнення швидшого розгортання.
Алтман та лауреат Нобелівської премії з питань штучного інтелекту Джеффрі Хінтон підписали заяву, що пом’якшення ризиків вимирання від ШІ має бути глобальним пріоритетом. Але повідомляється, що процеси тестування в OpenAI стають менш ретельними: їм не вистачає часу та ресурсів для виявлення та пом’якшення ризиків. Компанія також пішла на компроміс з питаннями безпеки, щоб дотримуватися графіків випуску продуктів.
Ян Лекун, який пішов з OpenAI, заявив, що компанія втратила свою місію і все більше зосереджується на прибутку. Крім того, Альтман заявив, що може стати важливим зменшити глобальну доступність обчислювальних ресурсів, у той час як він намагався домовитися про будівництво інфраструктури обчислень на трильйони доларів зі “спонсорами” США..
І це лише короткий огляд. Дуже цікаво буде спостерігати, як розвиватиметься ця ситуація. Будемо тримати руку на пульсі!
А що ви думаєте? Дайте знати у коментарях!
З вами був Кейсі Байт. До зустрічі у наступному випуску!