Маск, Возняк, Харарі та інші експерти IT-галузі закликають призупинити розробку штучного інтелекту

Wallpaper Access
Понад тисячу експертів, серед яких Ілон Маск, співзасновник Apple Стів Возняк та ізраїльський історик Юваль Ной Харарі, підписали відкритий лист із закликом призупинити розробку потужних систем на основі штучного інтелекту, щоб дати час переконатися у їхній безпеці. Про це повідомляє France24.
Підпишіться на канал Gloss.ua у Telegram.
Експерти вважають, що ШІ з рівнем інтелекту, що конкурує з людським, можуть становити серйозні ризики для суспільства та людства. На їхню думку, навчання нейромереж треба зупинити, доки не з'являться загальні протоколи безпеки. А якщо навчання не вдасться зупинити швидко, то влада «має втрутитися і ввести мораторій».
Автори листа застерігають, що навіть творці «потужних цифрових розумів» не можуть їх контролювати, а сучасні системи штучного інтелекту починають конкурувати з людиною.
Так, провідна група експертів у сфері штучного інтелекту (ШІ) та представників ІТ-галузі, серед яких Ілон Маск, співзасновник Apple Стів Возняк та ще понад 1100 осіб, підписали відкритий лист про ризики таких технологій для суспільства та закликали як мінімум на півроку призупинити навчання нейромереж, що перевершують GPT-4.
«AGI може призвести до великих змін в історії життя на Землі… На жаль, зараз не спостерігається достатнього рівня планування та управління, а останні місяці лабораторії ШІ вийшли з-під контролю; ніхто не може зрозуміти, спрогнозувати та контролювати розробку та розгортання все більш потужних цифрових умів — навіть їхні творці», — застерігають експерти.
«Системи на основі штучного інтелекту з людським конкурентним інтелектом можуть становити серйозні ризики для суспільства та людства. Потужні системи на основі штучного інтелекту слід розробляти лише тоді, коли ми будемо впевнені, що їхній ефект буде позитивним, а ризики керованими», - сказано в листі.
Що вміє GPT-4?
Учасники ініціативи вирішили підписати відкритий лист після того, як стартап OpenAI випустив нову модель на основі штучного інтелекту GPT-4, яка набагато потужніша за попередню версію, що використовувалася для роботи чат-бота ChatGPT. Тепер нейромережа здатна розуміти не тільки текст, а й розпізнавати зображення, і може навіть пояснити значення мемів. Розробники стверджують, що GPT-4 може вирішувати складні завдання з більшою точністю завдяки розширеним загальним знанням. Крім того, оновлений бот навчився чудово складати складні іспити з математики та юриспруденції.
Дослідницька команда Microsoft оцінила потужність GPT-4, близьку до людського рівня. Оновлену мовну модель назвали першим кроком до "загального штучного інтелекту" (ЗШІ), тобто здатного на виконання широкого кола завдань.
Як результат, Future of Life Institute закликає всі лабораторії ШІ поставити їх дослідження на шестимісячну паузу, щоб детальніше вивчити всі питання безпеки технології. Водночас, організація не закликає зупинити розробку ШІ в цілому, а скоріше «відступити від небезпечної погоні до дедалі більших і непередбачуваних моделей чорної скриньки з надзвичайними можливостями».
Читай також
Будинок на колесах майбутнього: Chery показали фургон для тривалих подорожей (фото, відео)
Вражаючий функціонал
Найкращі автомобілі року за версією Consumer Reports: топ-10 моделей
Subaru і Toyota домінують у списку
Meta створила пристрій, який читає думки: Brain2Qwerty перетворює думки на текст (фото)
Чому технологія не стане доступною для продажу
В Україні запустять онлайн-магазин, де військові за допомогою "є-балів" зможуть купити БПЛА
Безпілотники, засоби зв'язку, запчастини та інше
Tesla відкликає понад 375 тисяч автомобілів, випущених у 2023 році: причина
Компанія-лідер за кількістю машин із дефектами
Маск може в будь-який момент відключити "Старлінк" для ЗСУ: чим це загрожує фронту
Військовим треба бути готовими
Apple представила iPhone 16E - найдоступніший смартфон у лінійці компанії (відео)
Основні функції нового «SE»