OpenAI: Зрада місії? 10 припустимо, ключових моментів, які ви повинні знати
Привіт, народ! Кейсі Байт на зв’язку. Сьогодні ми зануримося у серйозну драму, що розгортається в OpenAI. Якщо ви не в курсі (що малоймовірно, якщо ви стежите за ІТ), то мова піде про те, як OpenAI, піонери у галузі штучного інтелекту, можуть втратити свій оригінальний дух заради. Ну, грошей. Цікаво,
Нещодавно було опубліковано відкритий лист під назвою “Не для приватної вигоди”, підписаний десятками колишніх співробітників OpenAI. Фактично, цей лист звертається до Генеральних прокурорів Каліфорнії та Делаверу із закликом заблокувати заплановану реструктуризацію OpenAI у комерційну організацію. Автори аргументують, що такий крок порушить первинну місію некомерційної організації: забезпечити, щоб AGI (загальний штучний інтелект) приносив користь усьому людству, а не служив приватним інтересам.
Давайте розберемо 10 ключових пунктів, які допоможуть вам розібратися в цій складній історії. Готові слухайте, тому поїхали хоча
1. Зрада фундаментального принципу
Почнемо з основ. Фактично, openAI було створено саме слухайте, тому, що засновники вважали, що розробка AGI виключно. Заради прибутку (як це, на їхню думку, робив Google) є надзвичайно небезпечною, типу того. Їхній некомерційний статус спочатку мав на меті гарантувати, що рішення пріоритезують благо людства, а не просто гроші.
Основна ідея проста:
- Оригінальна філософія: Штучний інтелект, розроблений для блага всіх, а не заради прибутку.
- Тепер: Зміна структури, де прибуток стає важливим фактором.
- Суть: Повний переворот ідеї, що лежить в основі OpenAI.
Ось цитата з самого початку, яка підкреслює їхні наміри:
“Наша мета – розвивати. Цифровий інтелект щоб це принесло найбільшу користь людству в цілому, без обмежень у необхідності генерувати фінансову віддачу. Оскільки бачите, наші дослідження приблизно, дивіться, вільні від фінансових зобов’язань. Ми можемо краще зосередитися на позитивному впливі на людину. “
Грег Брокман, ще в принципі, один з ключових членів команди, також підкреслював етичну складову. Справа в тому, що його цитата: “На етичному фронті це дійсно важливо для моєї організації. Ось причина, чому ми існуємо. Коли справа доходить до пільг, хто володіє цією технологією, в принципі, кому вона дістанеться, куди підуть гроші, ми думаємо, що вона належить усім, приблизно так. Більше того, “
Тож, перехід до комерційної моделі стане зрадою цих основоположних принципів.
2. Масовий перерозподіл багатства, потенційно майже нескінченного
AGI – це технологія, яка обіцяє створити неймовірне багатство. Оригінальна структура з обмеженим прибутком була розроблена щоб це багатство поверталося. До некомерційної організації, тобто до людства, а не до приватних інвесторів.
Ось як це працювало:
- Мета: Щоб надзвичайні прибутки від AGI діставалися всім. Зрозуміло,
- Тепер: Видалення обмеження прибутків – для задоволення інвесторів.
- Наслідок: Астрономічні слухайте, прибутки від AGI можуть піти невеликій групі акціонерів. До речі,
Цитую Сема Альтмана: “Проблема з AGI, зокрема, полягає в тому, що якщо ми будемо успішними, і ми спробуємо, можливо. Ми зможемо розумієте, захопити [світловий конус] всієї майбутньої цінності у всесвіті. І це точно не підходить, щоб це отримала одна група інвесторів. “
Зміни у структурі можуть дозволити інвесторам отримати необмежену вигоду від своїх інвестицій. Це потенційно може призвести до перерозподілу багатства: від людства в цілому до обмеженого кола осіб.
3. Втрата юридичної підзвітності та громадського контролю
Коли OpenAI є некомерційною організацією, державні чиновники юридично зобов’язані контролювати, щоб OpenAI дотримувалася своєї місії.
- Зараз: Комерційні організації мають набагато менше громадського контролю.
- PBC (Публічно Вигідна Корпорація): Хоча PBC має заявлені суспільні. Переваги, основне юридичне право на судове переслідування ради переходить до акціонерів.
- Наслідок: Ефективні важелі впливу на компанію втрачаються.
У разі переходу до комерційної структури, громадський контроль значно зменшиться. До речі, основним інтересом для акціонерів стане фінансова віддача, а не благо суспільства. Чиновники втратять ключовий інструмент забезпечення виконання місії оскільки
4. Право власності на AGI: кому дістанеться контроль?
Один з оригінальних пунктів у статуті OpenAI чітко вказував: якщо вони створять. Справжній AGI, то технологія належатиме некомерційній організації, гарантуючи, що нею управляють на благо людства. Чесно кажучи,
- Оригінал Якщо створимо AGI – він належить некомерційній організації.
- Перебудова Формально бачите, AGI може належати комерційній компанії та її інвесторам.
- Висновок Це означає, що основні інвестори отримають необмежений доступ до потужної технології.
Тож питання: хто буде володіти та контролювати AGI? Досі немає жодного публічного коментаря від OpenAI щодо цього питання. Але з великою імовірністю, AGI належатиме OpenAI та її інвесторам. Цікаво, існують повідомлення, що OpenAI та Microsoft обговорюють скасування обмеження доступу Microsoft до технологій ШІ.
5. Зрозуміло, різка зміна позиції Сема Альтмана
У 2023 році Сем Альтман дав свідчення от, Конгресу США, підкреслюючи важливість. Контролю некомерційної організації, обмеження прибутків та інших ключових функцій управління, які забезпечують, щоб OpenAI залишалася зосередженою на місії.
- Травень 2023: Альтман підтримує обмеження OpenAI.
- Вересень 2024: Ті ж самі обмеження тепер описуються як перешкоди.
- Підтекст: “Швидше, більше грошей! “
Менше ніж через два роки він прагне. Усунути бачите, ці самі засоби захисту, представляючи їх як перешкоди. Це викликає серйозні питання щодо мотивації реструктуризації тому що ж змінилося? Цей різкий розворот, звісно, викликає питання.
6. Насправді, зрозуміло, зрада зобов’язання “зупинитись та допомогти”
У статуті OpenAI було зобов’язання: Якщо інша безпечна та обережна група наблизиться до створення AGI, OpenAI спочатку припинить конкуренцію та допоможе їм, щоб запобігти безрозсудній гонці до розгортання потенційно небезпечної технології.
Розшифровка:
- Усталений принцип: Якщо інша організація буде близька до мети AGI, OpenAI має допомогти їй.
- В реальності: Зміни, пов’язані з комерціалізацією, можуть змусити компанію забути про принципи.
- Занепокоєння: Комерційні засади та конкуренція можуть ігнорувати це зобов’язання, десь так.
У поточному контексті “перегонів ШІ”, дуже ймовірно, що новий. Комерційний устрій, керований конкурентним скажімо, тиском, може проігнорувати цю важливу гарантію безпеки, в такому дусі. Хто ж погодиться добровільно зупинитися і допомогти конкурентам. Якщо мова йде про такий потенційно важливий ресурс? Насправді,
7. Контроль над AGI може бути ціннішим, ніж будь-що інше
AGI може принести незліченні багатства та змінити світ. Цікаво, обмежена кількість людей контролюватиме цю технологію, матиме владу над нею, що десь так, стане ключовим аргументом для зацікавленості інвесторів у цій сфері, щось на зразок.
8. Використання благодійних пожертвувань не за цільовим призначенням
OpenAI була заснована на основі благодійних пожертвувань. Ці кошти повинні були бути використані для створення AGI на благо людства.
- Закон: Благодійні внески повинні використовуватися виключно за призначенням.
- Проблема: Гроші, тобто, призначені для технології, що приносить, щось на зразок. Користь людству, можуть бути використані для комерційної діяльності.
- Наслідок: Порушення первісної обіцянки.
Тепер же йдеться про комерційну компанію, що. Потенційно є порушенням обіцянки, даної тим, хто пожертвував гроші. Цікаво, зрозуміло,
9. Тиск розумієте, інвесторів та їхні вимоги
Для того, щоб. Виправдати реструктуризацію, OpenAI посилається в основному на вимоги інвесторів. Їм треба спростити структуру капіталу, а також зазначають про нерозуміння ринком їх обмежень щодо прибутків.
- Проблема: Інвесторам незрозумілі обмеження прибутків OpenAI.
- Рішення: Реструктуризація та перехід до комерційної структури. Справа в тому, що
- Наслідок: Місія може бути зміщена для задоволення потреб інвесторів.
Необхідність задоволення вимог інвесторів може змусити OpenAI змінити свої цілі.
10. Високі ризики та потенційні труднощі
OpenAI сама визнає, що AGI пов’язаний з серйозними ризиками зловживань, трагічних випадків та збоїв у суспільстві. Насправді,
- Важливо: Обмеження ризиків є важливим фактором.
- Проблема: Процеси тестування можуть бути недостатньо ретельними. Більше того,
- Результат: слухайте, Зменшення безпеки для досягнення швидшого розгортання.
Алтман та лауреат Нобелівської премії з питань штучного інтелекту Джеффрі. Відверто кажучи, хінтон підписали заяву, що пом’якшення ризиків вимирання від ШІ має бути глобальним пріоритетом. Але повідомляється, що процеси бачите, тестування в OpenAI стають менш ретельними: їм не вистачає часу та ресурсів для виявлення та пом’якшення ризиків. Компанія також пішла на компроміс з питаннями безпеки, щоб дотримуватися графіків випуску продуктів.
Ян Лекун, який пішов з OpenAI, заявив, що. Компанія втратила свою місію і все більше зосереджується на прибутку. Альтман заявив, що може стати важливим зменшити глобальну доступність обчислювальних ресурсів, у той час. Чесно кажучи, як він намагався домовитися про будівництво інфраструктури обчислень на трильйони доларів зі “спонсорами” США. Фактично,
І це лише короткий огляд. Дуже цікаво буде спостерігати, як розвиватиметься ця ситуація. Будемо тримати руку на пульсі!
А що ви думаєте тому дайте знати у коментарях!
З вами був Кейсі Байт. Безумовно, до загалом, зустрічі у наступному випуску!







