Маск, Возняк, Харарі та інші експерти IT-галузі закликають призупинити розробку штучного інтелекту
Понад тисячу експертів, серед яких Ілон Маск, співзасновник Apple Стів Возняк та ізраїльський історик Юваль Ной Харарі, підписали відкритий лист із закликом призупинити розробку потужних систем на основі штучного інтелекту, щоб дати час переконатися у їхній безпеці. Про це повідомляє France24.
Підпишіться на канал Gloss.ua у Telegram.
Експерти вважають, що ШІ з рівнем інтелекту, що конкурує з людським, можуть становити серйозні ризики для суспільства та людства. На їхню думку, навчання нейромереж треба зупинити, доки не з'являться загальні протоколи безпеки. А якщо навчання не вдасться зупинити швидко, то влада «має втрутитися і ввести мораторій».
Автори листа застерігають, що навіть творці «потужних цифрових розумів» не можуть їх контролювати, а сучасні системи штучного інтелекту починають конкурувати з людиною.
Так, провідна група експертів у сфері штучного інтелекту (ШІ) та представників ІТ-галузі, серед яких Ілон Маск, співзасновник Apple Стів Возняк та ще понад 1100 осіб, підписали відкритий лист про ризики таких технологій для суспільства та закликали як мінімум на півроку призупинити навчання нейромереж, що перевершують GPT-4.
«AGI може призвести до великих змін в історії життя на Землі… На жаль, зараз не спостерігається достатнього рівня планування та управління, а останні місяці лабораторії ШІ вийшли з-під контролю; ніхто не може зрозуміти, спрогнозувати та контролювати розробку та розгортання все більш потужних цифрових умів — навіть їхні творці», — застерігають експерти.
«Системи на основі штучного інтелекту з людським конкурентним інтелектом можуть становити серйозні ризики для суспільства та людства. Потужні системи на основі штучного інтелекту слід розробляти лише тоді, коли ми будемо впевнені, що їхній ефект буде позитивним, а ризики керованими», - сказано в листі.
Що вміє GPT-4?
Учасники ініціативи вирішили підписати відкритий лист після того, як стартап OpenAI випустив нову модель на основі штучного інтелекту GPT-4, яка набагато потужніша за попередню версію, що використовувалася для роботи чат-бота ChatGPT. Тепер нейромережа здатна розуміти не тільки текст, а й розпізнавати зображення, і може навіть пояснити значення мемів. Розробники стверджують, що GPT-4 може вирішувати складні завдання з більшою точністю завдяки розширеним загальним знанням. Крім того, оновлений бот навчився чудово складати складні іспити з математики та юриспруденції.
Дослідницька команда Microsoft оцінила потужність GPT-4, близьку до людського рівня. Оновлену мовну модель назвали першим кроком до "загального штучного інтелекту" (ЗШІ), тобто здатного на виконання широкого кола завдань.
Як результат, Future of Life Institute закликає всі лабораторії ШІ поставити їх дослідження на шестимісячну паузу, щоб детальніше вивчити всі питання безпеки технології. Водночас, організація не закликає зупинити розробку ШІ в цілому, а скоріше «відступити від небезпечної погоні до дедалі більших і непередбачуваних моделей чорної скриньки з надзвичайними можливостями».
Теги: інформаційні технології , прогрес , людство , штучний інтелект , технології , світові новини