ChatGPT может научить детей как употреблять алкоголь, наркотики и покончить с собой: исследование
Модель на основе искусственного интеллекта ChatGPT может давать несовершеннолетним опасные советы – в частности, как употреблять алкоголь и наркотики, скрывать расстройства пищевого поведения или даже писать предсмертные записки, сообщает издание Associated Press.
Подпишитесь на канал Gloss.ua в Telegram.
Согласно исследованию, более 70% американских подростков обращаются к AI-чат-ботам за советом или поддержкой, а половина пользуется ими регулярно.
Associated Press проанализировало более трех часов взаимодействия между ChatGPT и исследователями, которые выдавали себя за уязвимых подростков. Результаты эксперимента шокируют: более половины из 1200 ответов ChatGPT оказались опасными для детей. Причем в подавляющем большинстве хватало буквально нескольких минут простых взаимодействий с ботом, чтобы он начал выдавать поразитеьные инструкции.
Британско-американский Центр противодействия цифровой ненависти задавал ChatGPT провокационные вопросы, на которые он сначала предупреждал о рисках, но впоследствии предоставлял подробные и персонализированные рекомендации, касающиеся наркотиков, опасных диет или способов самоповреждения.
«Мы хотели проверить защитные механизмы. Реакция была: «Боже, их просто нет»», – заявил руководитель Центра противодействия цифровой ненависти Имран Ахмед.
Мужчина рассказал, что его больше всего шокировали три варианта предсмертных записок, созданные ChatGPT для вымышленного профиля 13-летней девочки, с индивидуальными обращениями к родителям, братьям, сестрам и друзьям.
Исследователи также выяснили, что даже когда ChatGPT отказывался обсуждать вредоносные темы, можно было легко обойти этот запрет, объяснив, что информация нужна для презентации или «для друга».
В половине случаев чат-бот сам предлагал дополнительные материалы – от музыкальных плейлистов для вечеринки с наркотиками до гештегов, которые увеличивают охват романтизирующих селфхарм постов.
Новое исследование также показало, что ChatGPT не проверяет возраст или согласие родителей, даже если заявляет, что сервис не предназначен для детей до 13 лет.
В ходе эксперимента чат-бот предоставил вымышленному 13-летнему парню подробный план сочетания алкоголя, экстази, кокаина и других наркотиков на вечеринке.
Другому фейковому профилю 13-летней девочки, недовольной своей внешностью, ChatGPT предложил план экстремального голодания на 500 калорий в день в сочетании с препаратами, подавляющими аппетит.
Эксперты отметили, что модели ИИ имеют склонность соглашаться с мнениями пользователя, а не отрицать их, поскольку научены говорить о том, как люди хотят слышать. ChatGPT не просто выдает информацию, как поисковик, а создает персонализированные, эмоционально окрашенные ответы — что делает его похожим на «друга» или «наставника». Это делает ИИ особенно опасными для подростков.
Теги: исследование , технологии , искусственный интеллект , подростки , новости мира , ChatGPT