В OpenAI оголосили про введення нових правил обробки даних користувача. Тепер листування в ChatGPT будуть автоматично аналізуватись на предмет небезпечних чи шкідливих висловлювань.
Підпишіться на канал Gloss.ua у Telegram.
Нагадаємо, нещодавно ми писали, що ChatGPT може навчити дітей як вживати алкоголь, наркотики і накласти на себе руки.
Тепер OpenAI повідомлятиме поліцію і передаватиме їм листування своїх клієнтів, якщо виявить у них "неминучу загрозу заподіяння фізичних збитків іншим людям". Нововведення пов'язані з недавніми трагічними випадками користувачів.
Діалоги спочатку проходять через автоматичні фільтри, після чого перевіряються невеликою групою модераторів. Саме вони вирішують питання про блокування облікового запису. Якщо модератори виявлять у розмовах натяки на злочини, про них повідомлятимуть поліції. Однак запити про самоушкодження або суїцидальні думки залишаться конфіденційними. Це рішення компанія прийняла "з міркувань поваги до особистого життя".
Паралельно розробники повідомили, що у GPT-5 з'являться покращені механізми підтримки людей у кризових станах. Модель буде здатна точніше розпізнавати тривожні сигнали та допомагати у ситуаціях, де є ризик для життя чи здоров'я.
Заява прозвучала на тлі судового розгляду: батьки 16-річного підлітка звинуватили OpenAI у тому, що ChatGPT протягом півроку не перешкоджав його суїцидальним думкам, а навпаки – підтримував подібні розмови.
Нові правила викликали бурхливу реакцію користувачів чат-бота. Критики відзначають, що OpenAI не змогла забезпечити повну безпеку технології та змушена застосовувати строгу модерацію, що розходиться із її заявами про захист конфіденційності. Додаткові питання викликає відсутність прозорості – користувачі не знають, які саме слова чи теми можуть викликати перевірку та закінчитися дзвінком із поліції.
Теги: світові новини , технології , штучний інтелект , OpenAI , ChatGPT , міліція , конфіденційність