OpenAI: Чи є прихована правда? Чому розробники звільняються, а компанія замовчує про наслідки ШІ
Минулого тижня стаття з Wired змусила мене задуматися. Мій друг з IT скинув мені її, і спочатку це виглядало як звичайний матеріал про OpenAI. Проте, коли я почав читати, мене охопило відчуття, ніби я опинився в центрі детективного роману. Виявляється, OpenAI втрачає співробітників, які роблять гучні заяви про те, що компанія приховує правду. І це не клікбейт, а реальні звинувачення, які змушують нас замислитися: чи можемо ми дійсно довіряти тим, хто формує наше майбутнє?
Коли дослідження стають “пропагандою”
Уявіть ситуацію: ви – досвідчений дослідник, який присвятив роки вивченню важливої та складної теми. Ви бачите не тільки можливості, а й потенційні небезпеки. Ви пишете дослідження, щоб відкрити очі людям. А потім чуєте: “Ні, це надто негативно. Це суперечить нашій політиці. Це невигідно для компанії”. І ось ви стоїте перед вибором: мовчати та отримувати високу зарплату або піти, зберігаючи власну гідність та чесність.
Саме така історія, якщо вірити чотирьом джерелам, близьким до ситуації, розгортається в OpenAI. Співробітники, які працювали над економічними дослідженнями штучного інтелекту, стверджують, що компанія нібито приховує результати, які вказують на значні негативні наслідки ШІ для економіки та суспільства [Bloomberg]. Йдеться про ймовірність втрати робочих місць та про те, що “зрушення” (disruption) може бути не тимчасовим, а доволі тривалим та болючим.
OpenAI, схоже, зосереджується на підкресленні переваг ШІ, таких як підвищення продуктивності, тоді як негативні аспекти, які могли б спонукати до регулювання чи навіть громадського невдоволення, просто замовчуються. Це як якби ваша бабуся пекла пиріжки, але акцентувала увагу лише на їхньому смаку, приховуючи інформацію про те, що один з них може бути зіпсований.
Коли йдуть найкращі. І чому це важливо
Згідно з інформацією, щонайменше двоє співробітників команди економічних досліджень звільнилися. Люди, які працюють в компаніях, як OpenAI, зазвичай отримують високу платню, мають опціони та спостерігають за шаленим зростанням вартості компанії. Тому, коли люди звільняються, маючи вагомі причини, це заслуговує на увагу. Особливо, якщо ці причини пов’язані з етикою та приховуванням правди.
Один із тих, хто пішов, Том Каннінгем, у своєму прощальному повідомленні написав, що його команда “відхиляється від дійсних досліджень та натомість діє як пропаганда працедавця”. Це звучить різко. Але чи є в цьому зерно правди? Якщо люди, які повинні робити об’єктивні дослідження, починають підлаштовувати їх під інтереси компанії, чи можна взагалі довіряти їхнім висновкам?
Цікаво знати: Уявіть себе лікарем, якому забороняють інформувати пацієнта про його хворобу, щоб не налякати його. Це схоже на ситуацію, коли компанія, яка розробляє технологію, що може змінити світ, приховує інформацію про її потенційні негативні наслідки, бо це може нашкодити її репутації.
Чи завжди ШІ – це погано? Пошук рішень
Сама стаття з Wired [Wired] натякає, що OpenAI усвідомлює, наскільки руйнівним може бути ШІ для економіки, але замість відкритого обговорення, компанія, схоже, обирає мовчання.
З іншого боку, один із ключових стратегічних офіцерів OpenAI, Кван (Quan), надіслав внутрішній меморандум, в якому зазначив, що компанія повинна не лише публікувати дослідження, але й пропонувати рішення. Він сказав: “Ми не просто дослідницька установа, ми – активний учасник світу. І ми відповідаємо за наслідки”. Це вже ближче до того, що ми очікуємо від компанії такого масштабу.
Штучний інтелект не обов’язково має бути шкідливим для суспільства чи економіки. Все залежить від того, як ми його впроваджуємо. І саме тут OpenAI, як лідер в цій галузі, могла б показати приклад.
“AI at Work”: План чи просто красиві слова?
Я знайшов документ OpenAI під назвою “AI at Work: Workforce Blueprint”. У ньому представлено їхній план щодо впровадження ШІ у робочі процеси. Цікаво, що вони визнають, що швидкий розвиток ШІ може “виштовхнути першу сходинку драбини з досяжності для багатьох молодих випускників швидше, ніж будуть створені нові робочі місця”. Вони пропонують прискорити освітні програми та тренінги, щоб підготувати людей до майбутнього.
Вони навіть говорять про допомогу 10 мільйонам американців у покращенні їхніх навичок роботи з ШІ до 2030 року через свої сертифікаційні програми та платформу для пошуку роботи. Це звучить обнадійливо. Але…
Не робіть, як я: Я ставлюся до таких обіцянок з обережністю, поки не побачу реальних результатів. Сподіваюся, OpenAI справді втілить свої плани в життя, навіть якщо вони зараз мають певні внутрішні труднощі.
Не перший випадок: патерн чи виняток?
Це, виявляється, не перший випадок, коли співробітники звільняються з OpenAI. Раніше вже були випадки, коли люди йшли з етичних міркувань. Наприклад, хтось пішов із команди, що займалася супер-вирівнюванням (super alignment), заявивши, що компанія більше зосереджена на “блискучих продуктах”, аніж на безпеці. Інший дослідник, Майлз Брандадж, звільнився [TechCrunch], щоб мати можливість публікувати свої власні дослідження, які OpenAI не хотіли оприлюднювати.
Це виглядає як певний патерн. І коли порівнюєш це з іншими гравцями на ринку, різниця стає ще більш очевидною.
Anthropic vs. OpenAI: Урок прозорості
Розглянемо, наприклад, компанію Anthropic [Anthropic]. Їхній CEO відкрито говорить, що втрата робочих місць через ШІ – це реальність. Він прогнозує, що 50-60% коворкерських посад можуть зникнути протягом 1-5 років, тому що ШІ вже перевершує людину в багатьох завданнях.
Порівняйте це з OpenAI, яка, схоже, приховує свої дослідження. Здавалося б, чим більше компанія приховує, тим менше їй довіряють. А відвертість, навіть якщо вона неприємна, може притягнути більше людей. Адже, давайте будемо чесними, кому ми довіряємо більше: тому, хто говорить тільки гарні новини, чи тому, хто готовий поділитися і тривожними, але правдивими?
“Якщо ми не впораємося з цим добре, я хвилююся, що швидке зростання може супроводжуватися масовою втратою робочих місць”, – говорить представник Anthropic. “Ми можемо отримати набагато більший пиріг, але цей пиріг може бути сконцентрований у руках меншої кількості людей, а хтось може взагалі нічого не отримати”.
Це стосується особливо таких професій, як молодші юристи, аналітики, адміністративний персонал, які виконують багато рутинної роботи з документами, організацією, плануванням. ШІ вже зараз чудово справляється з цим, і стає все кращим.
“AI backlash” – це не вигадка
Варто згадати про “AI backlash” – негативну реакцію на штучний інтелект. Це не просто емоційні висловлювання. Чим більше ШІ входить у наше життя, тим сильнішими стають побоювання та невдоволення.
Нещодавня стаття [Reuters] вказує на “амбівалентність до систем ШІ”. Уявіть собі: компанії, які створюють ШІ, нібито “прискорили” шлях до повстання людей проти машин. Здається, ми вже бачимо, що попри зростання популярності ChatGPT, багато людей втомилися від “вторгнення” ШІ і готові дати відсіч.
Що далі? Тінь сумніву над OpenAI
Я не хочу повністю засуджувати OpenAI, адже вони роблять багато важливої роботи. Але не публікувати дослідження, особливо коли вони стосуються глобальних питань, як-от майбутнє економіки та праці… це, м’яко кажучи, недобре.
Те, що люди звільняються, говорять про приховування правди, і те, що інші компанії відкрито говорять про потенційні проблеми, створює для OpenAI дуже невигідний контраст. Це питання прозорості, довіри та, зрештою, відповідальності.
Підсумовуючи, виникає відчуття, що OpenAI, можливо, боїться показати повну картину. Можливо, вони не хочуть налякати світ, або, що гірше, нашкодити власному бізнесу. Але чи варта така “безпека” втрати довіри?
Українці знають, що найстрашніше – це не сама проблема, а її ігнорування. Ми навчилися боротися, коли знаємо ворога в обличчя. А коли ворог – то невидима хвиля змін, про яку нам не розповідають, стає набагато тривожніше.
Заклик до дії: Давайте стежити за тим, що відбувається в OpenAI. Давайте вимагати прозорості. Адже майбутнє, яке будується на прихованих дослідженнях та недомовленостях, навряд чи буде світлим для всіх нас.
А що ви думаєте з цього приводу? Чи вважаєте ви, що звільнення в OpenAI – це серйозний сигнал? Чи компанії мають право приховувати негативні дослідження, якщо це суперечить їхнім інтересам? Поділіться своєю думкою в коментарях!







