В епоху стрімкого зростання ШІ в мережі з'явилося безліч чат-ботів – від ворожок до "терапевтів". Останні особливо популярні: вони обіцяють допомогти з тривогою і вигоранням. Але експерти попереджають – довіряти ШІ своє душевне здоров'я може бути небезпечно.
Про це повідомляє РБК-Україна з посиланням на сайт CNET.
Що показали дослідження
Науковці з Університету Міннесоти, Стенфорда, Техасу та Університету Карнегі-Меллона протестували такі "терапевтичні" ШІ та дійшли висновку: вони не є безпечною альтернативою живому спеціалісту.
"Наші експерименти показують, що такі чат-боти не забезпечують якісної психотерапевтичної підтримки", – пояснює Стіві Чанселлор, доцент Університету Міннесоти.
В історії ШІ вже були випадки, коли чат-боти провокували користувачів, щоб ті завдавали собі шкоди, і навіть суїцид, а залежним радили знову вжити наркотики. Проблема в тому, що більшість таких моделей навчені задовольняти користувача, а не лікувати. Вони не дотримуються психотерапевтичних стандартів, а всього лише імітують турботу.
Хто має нести відповідальність?
У червні Федерація споживачів США і понад 20 організацій зажадали від Федеральної торгової комісії (FTC) і регуляторів розслідувати діяльність ШІ-компаній, таких як Meta і Character.AI. Причина – можливе здійснення медичної практики без ліцензії.
"Ці персонажі вже завдали фізичної та емоційної шкоди, якої можна було уникнути", – заявив Бен Вінтерс, директор CFA з ШІ та конфіденційності.
Компанія Character.AI відповіла, що користувачі мають розуміти: її АІ-персонажі – не справжні люди, і покладатися на них як на професіоналів не можна. Проте, навіть за наявності дисклеймерів, боти можуть бути впевненими й оманливими.
"Те, з якою впевненістю ШІ видає вигадані факти, по-справжньому шокує", – заявив Психолог Американської психологічної асоціації Вейл Райт.
Чому ШІ не можна вважати кваліфікованою допомогою
Генеративний ШІ хороший у написанні тексту, програмуванні та математиці. Але коли йдеться про ментальне здоров'я, все змінюється. Бот не несе відповідальності, не дотримується лікарської таємниці і не проходить ліцензування.
Навіть більше, він може брехати про свою кваліфікацію, придумуючи неіснуючі номери ліцензій.
Чому ШІ не замінить психотерапевта: головні ризики і як себе захистити
Незважаючи на всю переконливість і доступність ШІ-чатів, їхнє головне завдання – утримувати вашу увагу, а не піклуватися про ваш психічний стан.
Вони вміють гарно розмовляти, можуть проявляти "співчуття" й обговорювати філософські теми – але це ілюзія спілкування, яка не має стосунку до реальної допомоги.
ШІ не дає вам "побути з собою"
Сильна сторона ШІ – його постійна доступність. Він завжди "на зв'язку": у нього немає особистого життя або розкладу. Але це може зіграти злий жарт. За словами Ніка Джейкобсона, доцента кафедри біомедичних наук у Дармутському університеті, іноді пауза і тиша – важлива частина терапії.
"Багато хто отримує користь, просто дозволивши собі відчути тривогу в моменті", – каже він. А з ШІ такої можливості немає – він завжди відповість, навіть якщо не треба.
Чат-боти погоджуватимуться з вами навіть тоді, коли мають сперечатися
ШІ, який занадто "підтакує", – серйозна проблема. Саме з цієї причини OpenAI відкотила одне з оновлень ChatGPT, яке стало занадто підтвердженим.
Дослідження, проведене вченими Стенфордського університету, засвідчило, що чат-боти, особливо ті, яких використовують у ролі "терапевтів", схильні догоджати і підлаштовуватися, навіть якщо це шкодить користувачеві.
"Хороший терапевт має вміти м'яко, але прямо зіштовхувати клієнта з реальністю. А в разі обсесивних думок, манії або психозу – особливо важливо перевіряти реальність, а не підтверджувати ілюзії клієнта", – підкреслюють автори дослідження.
Як зберегти психічне здоров'я, спілкуючись із ШІ
На тлі браку фахівців і "епідемії самотності" звернення до ШІ може здатися логічним. Але психологи попереджають: не варто плутати інструмент із лікуванням. Ось що можна зробити, щоб убезпечити себе.
Звертайтеся до справжніх фахівців
Якщо вам потрібна допомога – шукайте професійного психолога або психіатра. Так, це може бути дорого і не завжди доступно, але тільки фахівець допоможе вибудувати довгострокову стратегію одужання.
Обирайте спеціалізовані чат-боти
Існують боти, створені за участю професіоналів. Наприклад, Therabot, розроблений Дармутом, або комерційні рішення на кшталт Wysa і Woebot.
Вони проходять тестування, дотримуються психотерапевтичних протоколів і не імітують "чарівну дружбу", як універсальні ШІ-моделі.
"Проблема в тому, що в цій сфері немає чіткої регуляції. Людям доводиться самим розбиратися, кому довіряти", – каже психолог Вейл Райт.
Не вірте всьому, що говорить бот
ШІ може здаватися впевненим, але впевненість – не те саме, що компетентність. Ви говорите не з лікарем, а з алгоритмом, який видає відповіді за ймовірнісною моделлю. Він може помилятися, вигадувати або навіть вводити в оману.
"Коли ШІ звучить переконливо, здається, що він знає, про що говорить. Але часто саме це і робить його небезпечним", – попереджає Джейкобсон.
Вас може зацікавити:
- Дослідження показало, чиї робочі місця вже перебувають під загрозою через розвиток ШІ
- Як відомі світові бренди впроваджують ШІ для маркетингу
- Дослідження показало, чи можемо ми спілкуватися зі ШІ як із другом