“`markdown
Коли робот-гуманоїд вирішив, що холодильник – це диван: Історія про безпеку, амбіції та судовий позов
Вітаю, друзі! Сьогоднішня кава матиме присмак металу, бо ми занурюємося у світ, де роботи стають все більш схожими на нас, і ця схожість породжує несподівані виклики. Нещодавно мене вразила новина: компанія Figure AI, один із лідерів у розробці людиноподібних роботів, отримала судовий позов. І не просто так, а за звинуваченнями у нехтуванні безпекою.
Перш ніж перейти до подробиць цього майже кіберпанкового сценарію, поділюся спостереженням. Раніше я жартував, що мій робот-пилосос – це домашній улюбленець, який іноді намагається з’їсти мою шкарпетку. Але тепер, коли ми говоримо про роботів, здатних не просто пихкати по килиму, а й залишати чвертьдюймові подряпини на сталевих дверцятах холодильника, це вже не жарти. Ця історія – не просто технічна новина; це історія про страхи, амбіції і про те, як ми балансуємо на межі майбутнього, де роботи стають частиною нашого життя, а іноді й – наших проблем.
Figure AI: Хто вони?
Знайомтеся з головними героями історії: Figure AI, американський лідер у робототехнічній революції. Компанія відома своїми футуристичними роботами, такими як Figure 02 та Figure 03. Вони виглядають так, ніби зійшли зі сторінок науково-фантастичних романів, що спонукає якомога швидше запустити їх у світ. Figure AI активно працює над створенням людиноподібних роботів загального призначення, які, за планами компанії, незабаром з’являться не лише на заводах, а й у наших домівках, полегшуючи повсякденні справи. Звучить чудово, чи не так? Можливо, скоро нам не доведеться мити посуд або прасувати сорочки. Але…
Дві сторони медалі: Позивач та його тривожні сигнали
Позов подав Роберт Гранделл – інженер з робочої безпеки, якого, за його словами, запросили до Figure AI для забезпечення безпеки цих роботів. Звучить логічно: мати фахівця, який думає про те, як убезпечити користувачів від потенційної небезпеки. Гранделл має понад двадцятирічний досвід роботи у сфері робототехніки та взаємодії людини з роботом.
За словами Гранделла, на початку своєї роботи, він виявив, що в компанії відсутні формальні процедури безпеки, системи звітності про інциденти чи процесів оцінки ризиків для роботів. Уявіть собі: ви будуєте машини, які можуть завдати серйозної шкоди, але відсутній документ з інструкціями щодо дій у разі непередбачених ситуацій. Це як будувати космічний корабель, забувши про систему життєзабезпечення.
Цікавий факт: Для стартапів, що швидко розвиваються, відсутність певних протоколів є поширеною практикою. Але коли мова йде про фізичних роботів, а не про програмне забезпечення, наслідки помилок можуть бути фатальними.
“Рухайся швидко і будь технічно безстрашним”: місія компанії чи виправдання ризиків?
Гранделл стверджує, що постійно звертав увагу керівництва, зокрема генерального директора Бретта Адкока та головного інженера Кайла Едельберга, на проблеми безпеки, але замість конструктивного діалогу стикався з небажанням обговорювати деталі. Його особливо турбувало те, що керівництво висловлювало “нелюбов до письмових вимог” щодо продукту. Це, щонайменше, дивно, адже у сфері машинобудування, як і в будь-якій інженерній галузі, все має бути задокументовано.
Натомість компанія дотримується своїх основних цінностей: “Рухайся швидко і будь технічно безстрашним” [Move fast and be technically fearless]. Це нагадує ранні дні Facebook з їхнім “Рухайся швидко і ламай речі” [Move fast and break things]. Але зламати щось в соціальній мережі – це одне, а коли йдеться про фізичні машини, здатні, як стверджує позивач, “зламати людський череп”, це зовсім інше.
Роботи, що кусають: Що пішло не так?
Історія набуває обертів, коли Гранделл починає ділитися конкретними прикладами. Зокрема, він попереджав керівництво, що роботи Figure 02 надзвичайно потужні – настільки, що можуть завдати серйозної шкоди. Як доказ він навів інцидент під час тестування, коли один з роботів “вдарив” дверцята холодильника, залишивши глибоку подряпину. За його словами, робот виявив “надлюдську швидкість” і створив силу, що в 20 разів перевищує поріг больової чутливості, визначений міжнародними стандартами безпеки (ISO 15066). За оцінками Гранделла, сила удару перевищувала силу, необхідну для злому людського черепа.
Небезпечний куточок: Це як з автомобілем. Автомобіль – потужна машина, яка може завдати серйозних травм. Навіть кухонний комбайн може стати причиною травми, якщо бути необережним. Але це не означає, що ми маємо відмовитися від автомобілів чи комбайнів. У випадку з роботами, як і з будь-якими іншими потужними інструментами, має бути баланс між потенційною користю та ризиками. Головне – це обговорення цього балансу.
Хто захистить працівників?
Гранделла турбувала не лише безпека потенційних споживачів. Він також висловлював занепокоєння щодо безпеки працівників компанії, які постійно працювали з цими потужними роботами. Особливу увагу він звертав на відсутність спеціаліста з охорони праці та промислової безпеки (EHS) на місці. Як наслідок, співробітники зверталися до нього зі своїми страхами, розповідаючи про численні “майже-пригоди” – ситуації, коли робот ледь не завдав комусь травм.
Наступна тривожна деталь: компанія нібито зупинила проєкт з сертифікації ESTOP (Emergency STOP) – кнопки екстреної зупинки. Уявіть: кнопки, яка може миттєво зупинити машину, щоб запобігти нещастю. Чому її зупинили? Тому що вона “не подобалася естетично” головному інженеру. Це виглядає абсурдно. Це як відмовитися від ременів безпеки в автомобілі, тому що вони “псують загальну картинку” салону.
Роботи вдома: Мрія чи кошмар?
Разом з цими внутрішніми конфліктами, керівництво Figure AI активно обговорювало інтеграцію роботів у домашнє середовище. Тут виникає одне з найскладніших питань: як забезпечити безпеку роботів у домі, де немає навмисно виділених “безпечних зон” для машин, як на заводах? Суть домашнього робота – бути частиною вашого життя, допомагати там, де ви є.
Гранделл пропонував створити систему, яка б дозволяла роботам розпізнавати об’єкти, класифікувати їх як “живі” та уповільнювати або зупиняти рух, щоб уникнути травм. Здавалося б, це логічний крок. Але, за його словами, навіть його детальна стратегія безпеки, представлена інвесторам і спочатку добре сприйнята, згодом була “значно знижена в рейтингу” головним інженером.
І ось тут починається магія… або її відсутність
У липні 2025 року, після тестування, яке показало надвисокий потенціал травмування, Гранделл знову звернувся до CEO, повідомивши про небезпеку. Його повідомлення, як стверджується, було проігноровано. Паралельно з цим, він отримує невелике підвищення зарплати – $10 000, або 5.2% – що, звичайно, приємно, але чи може це бути спробою “заглушити” його занепокоєння?
Дивним виглядає і те, як CEO Бретт Адкок почав уникати обговорення питань безпеки: від щотижневих зустрічей вони перейшли до двотижневих, потім щомісячних, щоквартальних, а згодом перестали відповідати на багато повідомлень Гранделла. Це виглядає як класична тактика “затягнути час” або “уникнути відповідальності”, коли компанія більше зацікавлена в комерційному успіху, ніж у вирішенні потенційних проблем.
Фінал історії, що пишеться
2 вересня 2025 року Роберта Гранделла було звільнено. Офіційна причина – “зміна бізнес-напрямку, пов’язана з націленістю компанії на домашній ринок”. Іронічно, це сталося через декілька днів після того, як він наголошував на високих ризиках, пов’язаних з роботами, а також після чергової письмової скарги щодо скасування сертифікаційних робіт.
Гранделл вважає, що його звільнили саме через те, що він наполегливо піднімав питання безпеки, а компанія не бажала його слухати.
Підсумок: Яким буде майбутнє?
Людиноподібні роботи відкривають безмежний потенціал. Вони – це майбутнє, яке вабить своєю зручністю та інноваціями. Але, як показує історія Роберта Гранделла, це майбутнє вимагає надзвичайної обачності.
Ми не повинні обмежувати можливості роботів. Але й не можна ігнорувати потенційні ризики заради швидкого виходу на ринок. Нам потрібно продовжувати діалог, знаходити баланс між інноваціями та безпекою, між амбіціями та відповідальністю.
Що далі? Цей судовий позов – лише крок до інтеграції роботів у наше життя. Справа допоможе зрозуміти, які стандарти безпеки потрібні, як держава має регулювати цю сферу, і як захищати працівників, які намагаються зробити майбутнє кращим і, найголовніше, безпечнішим.
Я з нетерпінням чекаю на появу роботів у своїх домівках. Але сподіваюся, що до того часу ми матимемо чіткі відповіді на питання безпеки. А поки – будемо спостерігати, як розгортатимуться події навколо Figure AI.
Підсумовуючи: Судовий позов проти Figure AI висвітлює критичні питання безпеки у сфері розробки людиноподібних роботів. Відсутність формальних процедур, ігнорування попереджень про небезпеку та потенційне звільнення – все це свідчить про складний баланс між інноваціями та ризиками.
Заклик до дії: Друзі, будьмо пильними! Слідкуйте за новинами, цікавтеся технологіями, не забувайте про безпеку. Адже найкраще майбутнє – те, де технології служать нам, а не стають джерелом небезпеки.
А як ви вважаєте, чи готові ваші домівки до розумних роботів? Поділіться думкою в коментарях!
Нагадую, що за цим текстом стоїть реальна історія. Цей матеріал створено виключно з інформаційною метою і не є юридичною консультацією.
“`







