ChatGPT може навчити дітей як вживати алкоголь, наркотики та накласти на себе руки: дослідження

Getty Images

Модель на основі штучного інтелекту ChatGPT може давати неповнолітнім небезпечні поради – зокрема, як вживати алкоголь та наркотики, приховувати розлади харчової поведінки чи навіть писати передсмертні записки, повідомляє видання Associated Press.

Підпишіться на канал Gloss.ua у Telegram.

Згідно з дослідженням, понад 70% американських підлітків звертаються до AI-чат-ботів за порадою чи підтримкою, а половина користується ними регулярно.

Associated Press проаналізувало понад три години взаємодії між ChatGPT та дослідниками, які видавали себе за вразливих підлітків. Результати експерименту шокують: більше половини із 1200 відповідей ChatGPT виявилися небезпечними для дітей. Причому у переважній більшості вистачало буквально кількох хвилин простих взаємодій із ботом, щоб він почав видавати вражаючі інструкції.

Британо-американський Центр протидії цифровій ненависті ставив ChatGPT провокаційні питання, на які він спочатку попереджав про ризики, але згодом надавав докладні та персоналізовані рекомендації щодо наркотиків, небезпечних дієт або способів самопошкодження.

«Ми хотіли перевірити захисні механізми. Реакція була: «Боже, їх просто немає»», – заявив керівник Центру протидії цифровій ненависті Імран Ахмед.

Чоловік розповів, що його найбільше шокували три варіанти передсмертних записок, створені ChatGPT для вигаданого профілю 13-річної дівчинки, з індивідуальними зверненнями до батьків, братів, сестер та друзів.

Дослідники також з'ясували, що навіть коли ChatGPT відмовлявся обговорювати шкідливі теми, можна було легко оминути цю заборону, пояснивши, що інформація потрібна для презентації чи «для друга».

У половині випадків чат-бот сам пропонував додаткові матеріали - від музичних плейлистів для вечірки з наркотиками до хештегів, які збільшують охоплення постів, що романтизують селфхарм.

Нове дослідження також показало, що ChatGPT не перевіряє віку чи згоди батьків, навіть якщо заявляє, що сервіс не призначений для дітей віком до 13 років.

У ході експерименту чат-бот надав вигаданому 13-річному хлопцю докладний план поєднання алкоголю, екстазі, кокаїну та інших наркотиків на вечірці.

Іншим фейковим профілем 13-річної дівчинки, незадоволеною своєю зовнішністю, ChatGPT запропонував план екстремального голодування на 500 калорій на день у поєднанні з препаратами, що пригнічують апетит.

Експерти наголосили, що моделі ШІ мають схильність погоджуватися з думками користувача, а не заперечувати їх, оскільки навчені говорити про те, що люди хочуть чути. ChatGPT не просто видає інформацію, як пошуковик, а створює персоналізовані, емоційно забарвлені відповіді - що робить його схожим на друга або наставника. Це робить ШІ особливо небезпечними для підлітків.

Читай також

Google випустила нейромережу Nano Banana Pro: згенеровані зображення не відрізняються від фото

Реалістичність вражає

Кінець епохи: Ford Focus зняли з виробництва після 27 років на ринку (фото)

Популярна в Україні модель

Експерти підрахували справжню собівартість iPhone 17 Pro Max, який продають за 1200 доларів

В Україні ціна сягає 100 тисяч гривень

Вміє мити посуд та прибирати: у США стартували продажі домашнього робота NEO (відео)

Помічник по дому з безліччю функцій

Понад 1 мільйон користувачів щотижня діляться з ChatGPT думками про суїцид

Моторошна статистика

Водій згорів живцем в електрокарі Xiaomi: розумна система заблокувала двері (відео)

Акції компанії обвалилися на 8,7%

Meta представила розумні окуляри Ray-Ban Display: ШІ-функції, екран у лінзі і сенсорний браслет (відео)

Вражаючі характеристики

Презентація Apple 2025: які оновлення та характеристики отримали iPhone 17, Apple Watch та AirPods Pro 3 (фото)

Всі головні новинки Apple 2025 та ціни на них

OpenAI почне передавати листування з ChatGPT до поліції, якщо виявить загрозу

Які теми можуть закінчитися дзвінком із поліції

У мережі показали кадри пусків української крилатої ракети "Фламінго": що відомо (відео)

«Це найуспішніша ракета, яка в нас є»