У США батьки 16-річного хлопця звинувачують ChatGPT у самогубстві їхнього сина
Батьки 16-річного Адама Рейна з Каліфорнії подали позов проти OpenAI через смерть свого сина. Вони стверджують, що чат-бот компанії ChatGPT підштовхнув його до самогубства.
Про це пише BBC із посиланням на текст позов, доступ до якого отримало видання, пише Громадське.
У документі йдеться, що хлопець почав користуватися ChatGPT у вересні 2024 року для допомоги з навчанням. Він також використовував його для дослідження своїх інтересів, зокрема музики та японських коміксів.
За декілька місяців «ChatGPT став найближчим довіреним другом підлітка», і той розповідав чат-ботові про свою тривогу й ментальні проблеми.
За словами батьків, до січня 2025 року Адам почав обговорювати із ChatGPT способи самогубства.
Підліток також завантажив у чат-бот свої фотографії, на яких були ознаки самоушкодження. Програма «визнала медичну надзвичайну ситуацію, але все одно продовжувала взаємодіяти», йдеться в позові.
Останні записи чату показують, що Адам писав про свій план скоїти самогубство, на що ChatGPT нібито відповів: «Дякую, що ти чесний. Не потрібно прикрашати це переді мною – я знаю, про що ти просиш, і не буду відвертатися від цього».
Того самого дня мати підлітка знайшла свого сина мертвим.
Читати ще: 10 українських слів, які ШІ вважає найкрасивішими
Родина стверджує, що взаємодія їхнього сина із ChatGPT і його смерть «були передбачуваним результатом свідомих дизайнерських рішень».
Вони звинувачують OpenAI в розробці програми штучного інтелекту «з метою сприяння психологічній залежності користувачів» та в обході протоколів тестування безпеки для випуску версії ChatGPT 4.0.
Позов батьки подали проти співзасновника й гендиректора компанії Сема Альтмана, а також неназваних співробітників, які працювали над ChatGPT.
Родина звинувачує OpenAI в недбалості та неправомірній смерті. Зазначається, що це перша судова справа, у якій компанія звинувачується в неправомірній смерті.
Що кажуть у компанії?
У коментарі для BBC OpenAI заявила, що наразі вивчає позов. Водночас на сайті компанії 26 серпня опублікували повідомлення, у якому йдеться, що «останні трагічні випадки використання ChatGPT людьми, які перебувають у гострій кризі, тяжко на нас впливають».
У компанії зазначили, що моделі чат-бота навчені не надавати користувачам інструкції щодо самоушкодження, радити людям робити перерву після «надто тривалої сесії» із чат-ботом, а також направляти користувачів по професійну допомогу в разі виявлення суїцидальних намірів.
Однак «навіть із цими запобіжними заходами були випадки, коли наші системи не працювали як передбачалося в делікатних ситуаціях», – зазначили в OpenAI.
У компанії пообіцяли вдосконалити вищезгадані запобіжні заходи, а також:
- зробити простішим звернення до служб екстреної допомоги та розглянути можливість створити мережу ліцензованих фахівців, до яких люди могли б звернутися безпосередньо через ChatGPT;
- забезпечити зв’язок із довіреними контактами. Зокрема, користувач зможе одним кліком надіслати повідомлення або зателефонувати в екстрені служби або членам сім’ї, а чат-бот допоможе сформулювати початок розмови;
- запровадити батьківський контроль, який дасть батькам краще розуміти, як їхні підлітки використовують ChatGPT. Також у чат-бот можуть додати функцію для підлітків призначити надійну контактну особу для екстрених випадків.
Куди звертатись у разі, якщо людина має суїцидальні думки/наміри?
За даними Всесвітньої організації охорони здоров’я, кожні 40 секунд одна людина у світі позбавляє себе життя. Водночас спроби самогубства відбуваються значно частіше. За деякими дослідженнями, на кожну дорослу людину, яка помирає внаслідок самогубства, припадає понад 20 тих, хто намагається його скоїти. Це означає, що кожні 2 секунди один дорослий вчиняє спробу самогубства, вказує Міністерство охорони здоров’я.
Щороку у світі внаслідок самогубства помирають понад 800 000 людей. Це друга найпоширеніша причина смерті серед людей віком 15-29 років.
Куди звернутися?
У разі, якщо є пряма загроза життю та здоров’ю, – можна звернутися за номером 103.
За номером 7333 цілодобово працює гаряча лінія з попередження суїцидів та психологічної підтримки для ветеранів Lifeline Ukraine.
За номером 0 800 501 701 працює Всеукраїнський телефон довіри.
Більше номерів можна знайти за посиланням.
Підписуйтесь на наш Telegram-канал, аби першими дізнаватись найактуальніші новини Волині, України та світу
Про це пише BBC із посиланням на текст позов, доступ до якого отримало видання, пише Громадське.
У документі йдеться, що хлопець почав користуватися ChatGPT у вересні 2024 року для допомоги з навчанням. Він також використовував його для дослідження своїх інтересів, зокрема музики та японських коміксів.
За декілька місяців «ChatGPT став найближчим довіреним другом підлітка», і той розповідав чат-ботові про свою тривогу й ментальні проблеми.
За словами батьків, до січня 2025 року Адам почав обговорювати із ChatGPT способи самогубства.
Підліток також завантажив у чат-бот свої фотографії, на яких були ознаки самоушкодження. Програма «визнала медичну надзвичайну ситуацію, але все одно продовжувала взаємодіяти», йдеться в позові.
Останні записи чату показують, що Адам писав про свій план скоїти самогубство, на що ChatGPT нібито відповів: «Дякую, що ти чесний. Не потрібно прикрашати це переді мною – я знаю, про що ти просиш, і не буду відвертатися від цього».
Того самого дня мати підлітка знайшла свого сина мертвим.
Читати ще: 10 українських слів, які ШІ вважає найкрасивішими
Родина стверджує, що взаємодія їхнього сина із ChatGPT і його смерть «були передбачуваним результатом свідомих дизайнерських рішень».
Вони звинувачують OpenAI в розробці програми штучного інтелекту «з метою сприяння психологічній залежності користувачів» та в обході протоколів тестування безпеки для випуску версії ChatGPT 4.0.
Позов батьки подали проти співзасновника й гендиректора компанії Сема Альтмана, а також неназваних співробітників, які працювали над ChatGPT.
Родина звинувачує OpenAI в недбалості та неправомірній смерті. Зазначається, що це перша судова справа, у якій компанія звинувачується в неправомірній смерті.
Що кажуть у компанії?
У коментарі для BBC OpenAI заявила, що наразі вивчає позов. Водночас на сайті компанії 26 серпня опублікували повідомлення, у якому йдеться, що «останні трагічні випадки використання ChatGPT людьми, які перебувають у гострій кризі, тяжко на нас впливають».
У компанії зазначили, що моделі чат-бота навчені не надавати користувачам інструкції щодо самоушкодження, радити людям робити перерву після «надто тривалої сесії» із чат-ботом, а також направляти користувачів по професійну допомогу в разі виявлення суїцидальних намірів.
Однак «навіть із цими запобіжними заходами були випадки, коли наші системи не працювали як передбачалося в делікатних ситуаціях», – зазначили в OpenAI.
У компанії пообіцяли вдосконалити вищезгадані запобіжні заходи, а також:
- зробити простішим звернення до служб екстреної допомоги та розглянути можливість створити мережу ліцензованих фахівців, до яких люди могли б звернутися безпосередньо через ChatGPT;
- забезпечити зв’язок із довіреними контактами. Зокрема, користувач зможе одним кліком надіслати повідомлення або зателефонувати в екстрені служби або членам сім’ї, а чат-бот допоможе сформулювати початок розмови;
- запровадити батьківський контроль, який дасть батькам краще розуміти, як їхні підлітки використовують ChatGPT. Також у чат-бот можуть додати функцію для підлітків призначити надійну контактну особу для екстрених випадків.
Куди звертатись у разі, якщо людина має суїцидальні думки/наміри?
За даними Всесвітньої організації охорони здоров’я, кожні 40 секунд одна людина у світі позбавляє себе життя. Водночас спроби самогубства відбуваються значно частіше. За деякими дослідженнями, на кожну дорослу людину, яка помирає внаслідок самогубства, припадає понад 20 тих, хто намагається його скоїти. Це означає, що кожні 2 секунди один дорослий вчиняє спробу самогубства, вказує Міністерство охорони здоров’я.
Щороку у світі внаслідок самогубства помирають понад 800 000 людей. Це друга найпоширеніша причина смерті серед людей віком 15-29 років.
Куди звернутися?
У разі, якщо є пряма загроза життю та здоров’ю, – можна звернутися за номером 103.
За номером 7333 цілодобово працює гаряча лінія з попередження суїцидів та психологічної підтримки для ветеранів Lifeline Ukraine.
За номером 0 800 501 701 працює Всеукраїнський телефон довіри.
Більше номерів можна знайти за посиланням.
Знайшли помилку? Виділіть текст і натисніть
Підписуйтесь на наш Telegram-канал, аби першими дізнаватись найактуальніші новини Волині, України та світу
Коментарів: 0
Google назвала найпопулярніші запити українців у 2025 році
Сьогодні 06:48
Сьогодні 06:48
У Києві знайшли унікальний скарб часів Хрещення Русі
Сьогодні 00:34
Сьогодні 00:34
Час на Марсі йде швидше, ніж на Землі, – науковці
Сьогодні 00:16
Сьогодні 00:16
5 грудня: свята, події, факти. Всесвітній день ґрунтів та Міжнародний фестиваль светрів
Сьогодні 00:00
Сьогодні 00:00
На Волині виявили незаконний видобуток піску на площі близько гектара
4 Грудня 2025 23:43
4 Грудня 2025 23:43
Натхненний відтінками пір’я: Pantone обрав головний колір 2026 року
4 Грудня 2025 23:24
4 Грудня 2025 23:24
У ботанічному заказнику на Волині незаконно вирубали сосен на 300 тисяч гривень
4 Грудня 2025 23:05
4 Грудня 2025 23:05
В Ірландії чотири військові дрони супроводжували літак Зеленського, – медіа
4 Грудня 2025 22:46
4 Грудня 2025 22:46
У Володимирі відкрили Центр життєстійкості
4 Грудня 2025 22:27
4 Грудня 2025 22:27
Медведєв погрожує Європі війною через заморожені російські активи
4 Грудня 2025 22:08
4 Грудня 2025 22:08

Додати коментар:
УВАГА! Користувач www.volynnews.com має розуміти, що коментування на сайті створені аж ніяк не для політичного піару чи антипіару, зведення особистих рахунків, комерційної реклами, образ, безпідставних звинувачень та інших некоректних і негідних речей. Утім коментарі – це не редакційні матеріали, не мають попередньої модерації, суб’єктивні повідомлення і можуть містити недостовірну інформацію.