Хаос на сцені: спроба вручення повістки Сему Альтману та загальна тривога щодо майбутнього ШІ

    Інцидент на конференції як дзеркало страхів перед штучним інтелектом

    Нещодавно мій знайомий, заглиблений у світ технологій, поділився відео, яке змусило кров холонути в жилах. На ньому Сем Альтман, один із ключових творців нашого цифрового майбутнього, опинився в епіцентрі несподіваного інциденту. Безпосередньо на сцені йому спробували вручити судову повістку. Цей момент – не просто курйоз, а відображення глибинних страхів і тривог, що ховаються за блискучим фасадом штучного інтелекту.

    Подія відбулася в Сан-Франциско, але відео швидко розлетілося мережею. Розгубленість на обличчі Альтмана кидалася в очі. Людина, яка, здавалося б, здатна передбачити будь-які виклики, виглядала збентеженою. Поява документа, несподіваного гостя на сцені та миттєвий хаос у залі – сцена, що нагадувала епізод із фільму, але, на жах, була цілком реальною.

    За цими подіями стоїть значно більше, ніж може здатися на перший погляд. За звичайним запитанням “Чи можете ви забрати це зі сцени?” криється справжня драма. Це був спланований акт протесту проти самої суті сучасної технологічної революції. Він демонструє, що ми досягли нового, вкрай складного етапу у взаєминах людства та штучного інтелекту.

    “Stop AI”: Хто стоїть за протестом?

    Виявилося, що за інцидентом стоїть група активістів “Stop AI”. Їхня радикальна, на перший погляд, мета – повна заборона розвитку штучного над-інтелекту (ASI). Активісти діють з квітня 2024 року та, судячи з усього, налаштовані рішуче.

    Мета протесту була проста: використати судову повістку як інструмент, щоб змусити Сема Альтмана з’явитися в суді – для дачі свідчень чи надання документів. Найбільш тривожні слова, які часто губляться в інформаційному шумі, звучать так: “Ця справа стане першим випадком в історії людства, коли присяжним – звичайним людям – буде поставлено запитання про екзистенційну загрозу, яку штучний інтелект становить для людства.”

    Багато хто сприйняв інцидент як чергові юридичні перипетії OpenAI, але це набагато глибше. “Stop AI” роками намагаються привернути увагу до проблеми. Вони не вперше заявляють про свою позицію: приковували себе ланцюгами до воріт OpenAI, блокували дороги, протестували. Їхньою метою було донести свій протест.

    “Ми робимо це заради майбутнього”: розмова з активістами

    “Ми не прагнемо слави чи популярності. Все, чого ми хочемо, – це поінформувати людство про загрозу, яка перед нами стоїть,” – саме так активісти відповіли на критику в Twitter. Їхні слова, хоч і драматичні, несуть серйозний меседж: вони закликають до глобальної заборони розвитку штучного над-інтелекту. І лише після досягнення цієї мети вони готові “зникнути з радарів”.

    У світі ШІ, що розвивається шаленими темпами, їхній “рік з невеликим” активності вже можна вважати “дуже довгим часом”. Вони щиро вірять, що питання потребує негайного вирішення.

    В інтерв’ю активіст Сем Кх розповів, що його арешти не лякають. Він переконаний, що його дії слугують “вищому благу”.

    “Якщо мене знову заарештують, чи якщо мені доведеться сидіти у в’язниці – я не переймаюся”, – каже він. “Тому що ми стоїмо на порозі створення AGI (штучного загального інтелекту) надзвичайно скоро. І коли ми його створимо, ми втратимо контроль. А це означає гарантовану смерть для нас усіх, або втрату всіх робочих місць.”

    Його слова – це крик про допомогу. Він вірить, що якщо ніхто не діятиме, то “Stop AI” повинні взяти на себе відповідальність. Навіть якщо для цього доведеться вдаватися до блокування входів.

    “Хтось мусить щось робити. Хтось мусить діяти зараз”, – наполягає він.

    “Необхідний захист”: юридичний маневр чи надія?

    Дії активістів не можна вважати простим вандалізмом. Вони планують використати “правовий захист необхідності” (necessity defense) [1]. Цей юридичний принцип дозволяє визнати протиправні дії виправданими, якщо вони були вчинені для запобігання більшій шкоді.

    Активісти “Stop AI” намагаються довести, що їхні дії – блокування доріг, протести біля офісів OpenAI – були вимушеними, оскільки розвиток AGI/ASI, на їхню думку, становить “більше зло”, якого вони намагаються уникнути. Чи спрацює такий захист – складне юридичне питання. Але це свідчить про серйозність їхньої місії.

    OpenAI: чи дійсно безпечна компанія?

    Виникає логічне запитання: чи справді OpenAI, лідер у сфері ШІ, є настільки небезпечною, як стверджують активісти?

    Компанія часто заявляє про свою прихильність до безпеки. Але чи відповідають її дії словам? Багато критиків стверджують, що ні. З’явилися цитати про нібито зменшення зусиль OpenAI щодо забезпечення безпеки та перенаправлення ресурсів для прискорення розробки [2].

    “Ми мали більш ретельне тестування безпеки, коли це було менш важливо”, – цитата, що змушує задуматися. Ще більш тривожно звучить наступне твердження: “Навіть якщо конкуренти випустять модель з високим ризиком без належних запобіжних заходів, OpenAI може переглянути власні вимоги до безпеки, щоб не залишитися позаду”. Це нагадує гонку на льоду, де на кону – безпека людства.

    Внутрішні розбіжності: втеча до конкурентів

    Ситуація стає ще цікавішою, якщо врахувати, що навіть всередині OpenAI не все так гладко. Частина команди, яка безпосередньо займалася питаннями безпеки AGI, залишила компанію. Деякі перейшли до Anthropic, прямого конкурента OpenAI! Ян Лекун, один із піонерів ШІ, навіть висловив стурбованість щодо безпеки OpenAI.

    Відставні співробітники OpenAI публікували відкриті листи, критикуючи пріоритети компанії, яка, на їхню думку, ставить швидкий розвиток вище етичних міркувань та належних заходів безпеки. Колишній керівник відділу політики OpenAI звинуватив компанію в “переписуванні історії безпеки ШІ”.

    Не лише протести: глобальні заклики до заборони

    “Stop AI” – не єдина організація, яка виступає за безпеку ШІ. Занепокоєння висловлюють навіть мільярдери [3]. Вони підписують відкриті листи, закликаючи до зупинення розробки над-інтелекту.

    Нещодавно ще один такий лист підписали відомі особистості, зокрема “хрещені батьки ШІ”, співзасновники Apple, радники Папи Римського. Вони закликають до широкого наукового консенсусу, громадської підтримки та, головне, до безпечного та контрольованого розвитку.

    У 2023 році з’явився подібний лист, який закликав до шестимісячної паузи. Рух набирає обертів. Це вже не просто протести окремих людей, а глобальна хвиля, що наростає.

    Реакція суспільства: думка “звичайних людей”

    Важливою є реакція суспільства. Якщо проаналізувати настрої в соціальних мережах, стає зрозуміло: багато людей, які не є частиною “бульбашки” ШІ, ставляться до цієї технології з недовірою, а то й відвертою ворожістю.

    “Я ненавиджу ШІ з пристрастю. Це некерований, незбалансований витвір людської винахідливості, який висмоктує ресурси, руйнує клімат, є машиною для крадіжок, яку просувають короткозорі, жадібні особистості, які ставлять продукт та прибуток вище за людей і планету.”

    Ці слова відображають глибоке розчарування та обурення багатьох. Рухи, подібні до “Stop AI”, будуть набирати прихильників.

    Звісно, це не означає, що ШІ не буде розвиватися. Але великий суспільний негатив в певних сферах може змусити компанії бути більш обережними.

    Майбутнє ШІ: що далі?

    Люди, які висловлюють негативне ставлення до ШІ, найчастіше говорять не про алгоритми оптимізації маршрутів чи рекомендаційні системи. Йдеться про генеративний ШІ, що замінює людей у багатьох сферах.

    “Ти ненавидиш ШІ, бо він тебе замінить.” – “Ні, я ненавиджу його, бо він побудований на вкрадених даних, порушує авторські права, забруднює планету, висмоктує електроенергію, поширює дезінформацію…”

    Ці закиди мають під собою підґрунтя. Чим більше ШІ проникає в наше життя, тим більше зростає роздратування.

    Висновок: боротьба за майбутнє тільки починається

    Ми бачимо людей, які попереджають про небезпеку ШІ, про екзистенційні ризики. Сам Сем Альтман, до речі, не заперечує, що AGI може становити екзистенційну загрозу [4].

    Схоже, це лише початок. Ми будемо бачити все більше подібних ситуацій, де люди виступатимуть проти ШІ, вимагатимуть його заборони чи принаймні паузи. Це битва за наше майбутнє, і вона стає все більш запеклою.

    Рекомендації:

    1. Стежте за новинами: Будьте в курсі розвитку ШІ та реакції суспільства.
    2. Вивчайте інформацію: З’ясуйте, які саме загрози несе ШІ, а які – страхи є необґрунтованими.
    3. Формуйте власну думку: Не бійтеся ставити питання та висловлювати свої побоювання.
    4. Шукайте баланс: Як досягти прогресу, не наражаючи на небезпеку? Це виклик для всіх нас.

    Підсумовуючи, інцидент із судовою повісткою Сема Альтмана – це символ розладу між розвитком штучного інтелекту та побоюваннями людства. Чи зможемо ми знайти шлях до безпечного майбутнього, де технології слугують нам, а не навпаки? Час покаже. А поки що – будьте уважні, ставте запитання і не бійтеся брати участь у цій важливій розмові.

    [1] Necessity defense – Вікіпедія.
    [2] OpenAI.
    [3] Open Letter.
    [4] Sam Altman.

    Поділитися.
    0 0 голоси
    Рейтинг статті
    Підписатися
    Сповістити про
    guest
    0 Коментарі
    Найстаріші
    Найновіше Найбільше голосів
    Зворотній зв'язок в режимі реального часу
    Переглянути всі коментарі
    0
    Буду рада вашим думкам, прокоментуйте.x