Яке майбутнє у штучного інтелекту?

Де ми будемо завтра, наступного року і пізніше.

В завершальній частині цього циклу публікацій про ШІ ми поговоримо про те, що можна очікувати від штучного інтелекту найближчими роками.

На початку березня я відвідав офіс OpenAI в Сан-Франциско, щоб ознайомитися з GPT-4, новою версією технології, яка лежить в основі чат-бота ChatGPT. Найбільш разючий момент настав, коли Грег Брокман (Greg Brockman), президент і співзасновник OpenAI, продемонстрував функцію, яка досі недоступна широкому загалу: Він дав боту фотографію з космічного телескопа “Хаббл” і попросив його описати зображення “в найдрібніших деталях”.

Опис був абсолютно точним, аж до дивної білої лінії, створеної супутником, що простяглася по небу. Це один із поглядів на майбутнє чат-ботів та інших технологій штучного інтелекту: Нова хвиля мультимодальних систем (multimodal systems) буде жонглювати зображеннями, звуками й відео так само як і текстом.

В цьому дописі ми зосередимось на можливостях і потрясіннях, які очікують нас в міру того, як ШІ набуватиме нових здібностей і навичок.

ШІ в найближчій перспективі

Генеративний ШІ вже може відповідати на запитання, писати вірші, генерувати комп’ютерний код і вести бесіди. Як і передбачає сутність поняття “чат-бот”, він спочатку розгортається в розмовних форматах, таких як ChatGPT і Bing.

Але це триватиме недовго. Microsoft і Google вже оголосили про плани включити ці технології штучного інтелекту у свої продукти. Ви зможете використовувати їх для написання чернетки електронного листа, автоматичного підбиття підсумків зустрічі та багатьох інших цікавих трюків.

OpenAI також пропонує API (інтерфейс прикладного програмування), який інші технологічні компанії можуть використовувати для підключення GPT-4 до своїх програм і продуктів. Вже створено серію плагінів від таких компаній, як Instacart, Expedia і Wolfram Alpha, які розширюють можливості ChatGPT.

ШІ у середньостроковій перспективі

Багато експертів вважають, що ШІ зробить деяких працівників, зокрема лікарів, юристів і програмістів, більш продуктивними, ніж будь-коли. Вони також вважають, що деякі працівники будуть замінені ШІ.

“Це торкнеться завдань, які є більш повторюваними, більш шаблонними, більш загальними”, — сказав Закарі Ліптон (Zachary Lipton), професор Університету Карнегі-Меллона, який спеціалізується на штучному інтелекті та його впливі на суспільство. “Це може призвести до звільнення деяких людей, які погано виконують повторювані завдання. При цьому існує загроза для людей, які спеціалізуються на повторюваній роботі”.

Можуть зникнути роботи з транскрипції та перекладу аудіо-в-текст, що виконуються людиною. У юридичній сфері GPT-4 вже достатньо кваліфікована, щоб успішно скласти іспит на адвоката, а бухгалтерська фірма PricewaterhouseCoopers планує впровадити юридичного чат-бота на базі OpenAI для своїх співробітників.

Водночас такі компанії, як OpenAI, Google і Meta, створюють системи, що дозволяють миттєво генерувати зображення та відео, просто описавши те, що ви хочете побачити.

Інші компанії створюють ботів, які можуть користуватися веб-сайтами та програмними застосунками, так само як це робить людина. На наступному етапі розвитку системи штучного інтелекту зможуть купувати в інтернеті різдвяні подарунки, наймати людей для виконання дрібної роботи по дому та відстежувати ваші щомісячні витрати.

Є над чим замислитися. Але найбільша проблема може полягати ось у чому: Перш ніж ми встигнемо зрозуміти, як ці системи вплинуть на світ, вони стануть ще потужнішими.

ШІ в довгостроковій перспективі

Такі компанії, як OpenAI та DeepMind, лабораторія, що належить материнській компанії Google, планують просунути цю технологію якнайдалі. Вони сподіваються зрештою створити те, що дослідники називають штучним загальним інтелектом, або A.G.I. — машину, яка може робити все, що може робити людський мозок.

Як сказав мені Сем Альтман, виконавчий директор OpenAI, три роки тому: “Моя мета — побудувати A.G.I., який принесе користь широкому загалу. І я розумію, що це звучить безглуздо”. Сьогодні це звучить вже не так безглуздо. Але це все ще легше сказати, ніж зробити.

Для того, щоб штучний інтелект став штучним загальним інтелектом, він повинен розуміти фізичний світ в цілому. І неясно, чи зможуть системи навчитися імітувати довжину і широту людських міркувань і здорового глузду, використовуючи методи, за допомогою яких були створені такі технології, як GPT-4. Ймовірно, будуть потрібні нові прориви.

Питання в тому, чи дійсно ми хочемо, щоб штучний інтелект став настільки потужним? Дуже важливе пов’язане з цим питання: Чи є спосіб запобігти цьому?

Ризики штучного інтелекту

Багато керівників компаній, що займаються ШІ, вважають, що технології, які вони створюють, покращать наше життя. Але деякі з них десятиліттями попереджають про похмурий сценарій, коли наші творіння не завжди робитимуть те, що ми хочемо, або виконуватимуть наші вказівки непередбачуваним чином, що може призвести до жахливих наслідків.

Експерти зі штучного інтелекту говорять про “вирівнювання” (“alignment”) — щоб системи ШІ відповідали людським цінностям і цілям.

Перед випуском GPT-4 OpenAI передала його сторонній групі, щоб вона уявила і протестувала небезпечні способи використання чат-бота.

Група виявила, що система може найняти людину в Інтернеті, щоб обійти тест на введення капчі. Коли людина запитала, чи це не “робот”, система без підказки тестувальників збрехала і сказала, що це людина з вадами зору.

Тестувальники також показали, що систему можна змусити запропонувати купити нелегальну вогнепальну зброю в Інтернеті та описати способи виготовлення небезпечних речовин з побутових предметів. Після змін, внесених OpenAI, система більше не робить таких речей.

Але усунути всі потенційні зловживання неможливо. Оскільки така система навчається на даних, вона розвиває навички, яких її творці ніколи не очікували. Важко передбачити, що може піти не так після того, як нею почнуть користуватися мільйони людей.

“Щоразу, коли ми створюємо нову систему штучного інтелекту, ми не можемо повністю охарактеризувати всі її можливості та всі її проблеми з безпекою — і ця проблема з часом стає не кращою, а гіршою”, — каже Джек Кларк (Jack Clark), засновник і керівник з політики Anthropic, стартапу в Сан-Франциско, який займається розробкою подібних технологій.

І OpenAI та такі гіганти, як Google, навряд чи єдині, хто досліджує цю технологію. Основні методи, які використовуються для створення цих систем, широко зрозумілі, і інші компанії, країни, дослідницькі лабораторії та зловмисники можуть бути менш обережними.

Засоби захисту від ШІ

Зрештою, для того, щоб тримати під контролем небезпечні технології штучного інтелекту, потрібен далекосяжний погляд. Але експерти не налаштовані оптимістично.

“Нам потрібна міжнародна регуляторна система”, — каже Авів Овадія (Aviv Ovadya), дослідник Центру Беркмана Кляйна з питань Інтернету та суспільства в Гарварді, який допомагав тестувати GPT-4 перед його випуском. “Але я не бачу, що наші наявні урядові інституції готові поквапитись із цим”.

Як вже відомо, понад 1000 технологічних лідерів і дослідників, включаючи Ілона Маска (ох уж ця “апеляція до авторитету” — примітка Артема Кислякова), закликали лабораторії штучного інтелекту призупинити розробку найсучасніших систем, попередивши у відкритому листі, що інструменти ШІ становлять “глибокі ризики для суспільства і людства”.

Розробники ШІ “втягнуті в неконтрольовані перегони з розробки та впровадження все більш потужних цифрових розумів, які ніхто — навіть їхні творці — не може зрозуміти, передбачити або надійно контролювати”, — йдеться в листі.

Деякі експерти в основному стурбовані короткостроковими небезпеками, включаючи поширення дезінформації та ризик того, що люди будуть покладатися на ці системи для отримання неточних або шкідливих медичних та емоційних порад.

Але інші критики, що є частиною великої й впливової інтернет-спільноти, яку називають раціоналістами або ефективними альтруїстами, вважають, що ШІ може зрештою знищити людство. Ця думка і була відображена в цьому листі.

Ваше домашнє завдання

Ми можемо розмірковувати про те, куди прийде штучний інтелект у далекому майбутньому, але можемо також запитати про це самих чат-ботів. У фінальному завданні поставтеся до ChatGPT, Bing або Bard, як до молодого претендента на роботу, і запитайте його, ким він бачить себе за 10 років.

Як завжди, діліться відповідями в коментарях.

Глосарій

Вирівнювання (Alignment): Спроби дослідників ШІ та фахівців з етики забезпечити, щоб штучний інтелект діяв відповідно до цінностей і цілей людей, які його створили.

Мультимодальні системи (Multimodal systems): ШІ, подібні до ChatGPT, які також можуть обробляти зображення, відео, аудіо та інші нетекстові вхідні та вихідні дані.

Штучний загальний інтелект (Artificial general intelligence): Штучний інтелект, який відповідає людському інтелекту і може робити все, що може робити людський мозок.

Оригінал

--

--