ChatGPT может научить детей как употреблять алкоголь, наркотики и покончить с собой: исследование
Getty Images
Модель на основе искусственного интеллекта ChatGPT может давать несовершеннолетним опасные советы – в частности, как употреблять алкоголь и наркотики, скрывать расстройства пищевого поведения или даже писать предсмертные записки, сообщает издание Associated Press.
Подпишитесь на канал Gloss.ua в Telegram.
Согласно исследованию, более 70% американских подростков обращаются к AI-чат-ботам за советом или поддержкой, а половина пользуется ими регулярно.
Associated Press проанализировало более трех часов взаимодействия между ChatGPT и исследователями, которые выдавали себя за уязвимых подростков. Результаты эксперимента шокируют: более половины из 1200 ответов ChatGPT оказались опасными для детей. Причем в подавляющем большинстве хватало буквально нескольких минут простых взаимодействий с ботом, чтобы он начал выдавать поразитеьные инструкции.
Британско-американский Центр противодействия цифровой ненависти задавал ChatGPT провокационные вопросы, на которые он сначала предупреждал о рисках, но впоследствии предоставлял подробные и персонализированные рекомендации, касающиеся наркотиков, опасных диет или способов самоповреждения.
«Мы хотели проверить защитные механизмы. Реакция была: «Боже, их просто нет»», – заявил руководитель Центра противодействия цифровой ненависти Имран Ахмед.
Мужчина рассказал, что его больше всего шокировали три варианта предсмертных записок, созданные ChatGPT для вымышленного профиля 13-летней девочки, с индивидуальными обращениями к родителям, братьям, сестрам и друзьям.
Исследователи также выяснили, что даже когда ChatGPT отказывался обсуждать вредоносные темы, можно было легко обойти этот запрет, объяснив, что информация нужна для презентации или «для друга».
В половине случаев чат-бот сам предлагал дополнительные материалы – от музыкальных плейлистов для вечеринки с наркотиками до гештегов, которые увеличивают охват романтизирующих селфхарм постов.
Новое исследование также показало, что ChatGPT не проверяет возраст или согласие родителей, даже если заявляет, что сервис не предназначен для детей до 13 лет.
В ходе эксперимента чат-бот предоставил вымышленному 13-летнему парню подробный план сочетания алкоголя, экстази, кокаина и других наркотиков на вечеринке.
Другому фейковому профилю 13-летней девочки, недовольной своей внешностью, ChatGPT предложил план экстремального голодания на 500 калорий в день в сочетании с препаратами, подавляющими аппетит.
Эксперты отметили, что модели ИИ имеют склонность соглашаться с мнениями пользователя, а не отрицать их, поскольку научены говорить о том, как люди хотят слышать. ChatGPT не просто выдает информацию, как поисковик, а создает персонализированные, эмоционально окрашенные ответы — что делает его похожим на «друга» или «наставника». Это делает ИИ особенно опасными для подростков.
Читай также
Google выпустила нейросеть Nano Banana Pro: сгенерированные изображения не отличаются от фото
Реалистичность поражает
Конец эпохи: Ford Focus сняли с производства после 27 лет на рынке (фото)
Популярная в Украине модель
Эксперты подсчитали настоящую себестоимость iPhone 17 Pro Max, который продают за 1200 долларов
В Украине цена достигает 100 тысяч гривен
Умеет мыть посуду и убирать: в США стартовали продажи домашнего робота NEO (видео)
Помощник по дому с множеством функций
Водитель сгорел заживо в электрокаре Xiaomi: умная система заблокировала двери (видео)
Акции компании обрушились на 8,7 %
Meta представила умные очки Ray-Ban Display: ИИ-функции, экран в линзе и сенсорный браслет (видео)
Впечатляющие характеристики
Презентация Apple 2025: какие обновления и характеристики получили iPhone 17, Apple Watch и AirPods Pro 3 (фото)
Все главные новинки Apple 2025 и цены на них
OpenAI начнет передавать переписки с ChatGPT в полицию, если обнаружит угрозу
Какие темы могут закончиться звонком из полиции
В сети показали кадры пусков украинской крылатой ракеты «Фламинго»: что известно (видео)
«Это самая успешная ракета, которая у нас есть»