ChatGPT може навчити дітей як вживати алкоголь, наркотики та накласти на себе руки: дослідження
Модель на основі штучного інтелекту ChatGPT може давати неповнолітнім небезпечні поради – зокрема, як вживати алкоголь та наркотики, приховувати розлади харчової поведінки чи навіть писати передсмертні записки, повідомляє видання Associated Press.
Підпишіться на канал Gloss.ua у Telegram.
Згідно з дослідженням, понад 70% американських підлітків звертаються до AI-чат-ботів за порадою чи підтримкою, а половина користується ними регулярно.
Associated Press проаналізувало понад три години взаємодії між ChatGPT та дослідниками, які видавали себе за вразливих підлітків. Результати експерименту шокують: більше половини із 1200 відповідей ChatGPT виявилися небезпечними для дітей. Причому у переважній більшості вистачало буквально кількох хвилин простих взаємодій із ботом, щоб він почав видавати вражаючі інструкції.
Британо-американський Центр протидії цифровій ненависті ставив ChatGPT провокаційні питання, на які він спочатку попереджав про ризики, але згодом надавав докладні та персоналізовані рекомендації щодо наркотиків, небезпечних дієт або способів самопошкодження.
«Ми хотіли перевірити захисні механізми. Реакція була: «Боже, їх просто немає»», – заявив керівник Центру протидії цифровій ненависті Імран Ахмед.
Чоловік розповів, що його найбільше шокували три варіанти передсмертних записок, створені ChatGPT для вигаданого профілю 13-річної дівчинки, з індивідуальними зверненнями до батьків, братів, сестер та друзів.
Дослідники також з'ясували, що навіть коли ChatGPT відмовлявся обговорювати шкідливі теми, можна було легко оминути цю заборону, пояснивши, що інформація потрібна для презентації чи «для друга».
У половині випадків чат-бот сам пропонував додаткові матеріали - від музичних плейлистів для вечірки з наркотиками до хештегів, які збільшують охоплення постів, що романтизують селфхарм.
Нове дослідження також показало, що ChatGPT не перевіряє віку чи згоди батьків, навіть якщо заявляє, що сервіс не призначений для дітей віком до 13 років.
У ході експерименту чат-бот надав вигаданому 13-річному хлопцю докладний план поєднання алкоголю, екстазі, кокаїну та інших наркотиків на вечірці.
Іншим фейковим профілем 13-річної дівчинки, незадоволеною своєю зовнішністю, ChatGPT запропонував план екстремального голодування на 500 калорій на день у поєднанні з препаратами, що пригнічують апетит.
Експерти наголосили, що моделі ШІ мають схильність погоджуватися з думками користувача, а не заперечувати їх, оскільки навчені говорити про те, що люди хочуть чути. ChatGPT не просто видає інформацію, як пошуковик, а створює персоналізовані, емоційно забарвлені відповіді - що робить його схожим на друга або наставника. Це робить ШІ особливо небезпечними для підлітків.
Теги: дослідження , технології , штучний інтелект , підлітки , світові новини , ChatGPT