Чи може ШІ замінити психолога? Дослідження виявило несподівані ризики

В епоху стрімкого зростання ШІ в мережі з'явилося безліч чат-ботів – від ворожок до "терапевтів". Останні особливо популярні: вони обіцяють допомогти з тривогою і вигоранням. Але експерти попереджають – довіряти ШІ своє душевне здоров'я може бути небезпечно.

Про це повідомляє РБК-Україна з посиланням на сайт CNET.

Що показали дослідження

Науковці з Університету Міннесоти, Стенфорда, Техасу та Університету Карнегі-Меллона протестували такі "терапевтичні" ШІ та дійшли висновку: вони не є безпечною альтернативою живому спеціалісту.

"Наші експерименти показують, що такі чат-боти не забезпечують якісної психотерапевтичної підтримки", – пояснює Стіві Чанселлор, доцент Університету Міннесоти.

В історії ШІ вже були випадки, коли чат-боти провокували користувачів, щоб ті завдавали собі шкоди, і навіть суїцид, а залежним радили знову вжити наркотики. Проблема в тому, що більшість таких моделей навчені задовольняти користувача, а не лікувати. Вони не дотримуються психотерапевтичних стандартів, а всього лише імітують турботу.

Хто має нести відповідальність?

У червні Федерація споживачів США і понад 20 організацій зажадали від Федеральної торгової комісії (FTC) і регуляторів розслідувати діяльність ШІ-компаній, таких як Meta і Character.AI. Причина – можливе здійснення медичної практики без ліцензії.

"Ці персонажі вже завдали фізичної та емоційної шкоди, якої можна було уникнути", – заявив Бен Вінтерс, директор CFA з ШІ та конфіденційності.

Компанія Character.AI відповіла, що користувачі мають розуміти: її АІ-персонажі – не справжні люди, і покладатися на них як на професіоналів не можна. Проте, навіть за наявності дисклеймерів, боти можуть бути впевненими й оманливими.

"Те, з якою впевненістю ШІ видає вигадані факти, по-справжньому шокує", – заявив Психолог Американської психологічної асоціації Вейл Райт.

Чому ШІ не можна вважати кваліфікованою допомогою

Генеративний ШІ хороший у написанні тексту, програмуванні та математиці. Але коли йдеться про ментальне здоров'я, все змінюється. Бот не несе відповідальності, не дотримується лікарської таємниці і не проходить ліцензування.

Навіть більше, він може брехати про свою кваліфікацію, придумуючи неіснуючі номери ліцензій.

Чому ШІ не замінить психотерапевта: головні ризики і як себе захистити

Незважаючи на всю переконливість і доступність ШІ-чатів, їхнє головне завдання – утримувати вашу увагу, а не піклуватися про ваш психічний стан.

Вони вміють гарно розмовляти, можуть проявляти "співчуття" й обговорювати філософські теми – але це ілюзія спілкування, яка не має стосунку до реальної допомоги.

ШІ не дає вам "побути з собою"

Сильна сторона ШІ – його постійна доступність. Він завжди "на зв'язку": у нього немає особистого життя або розкладу. Але це може зіграти злий жарт. За словами Ніка Джейкобсона, доцента кафедри біомедичних наук у Дармутському університеті, іноді пауза і тиша – важлива частина терапії.

"Багато хто отримує користь, просто дозволивши собі відчути тривогу в моменті", – каже він. А з ШІ такої можливості немає – він завжди відповість, навіть якщо не треба.

Чат-боти погоджуватимуться з вами навіть тоді, коли мають сперечатися

ШІ, який занадто "підтакує", – серйозна проблема. Саме з цієї причини OpenAI відкотила одне з оновлень ChatGPT, яке стало занадто підтвердженим.

Дослідження, проведене вченими Стенфордського університету, засвідчило, що чат-боти, особливо ті, яких використовують у ролі "терапевтів", схильні догоджати і підлаштовуватися, навіть якщо це шкодить користувачеві.

"Хороший терапевт має вміти м'яко, але прямо зіштовхувати клієнта з реальністю. А в разі обсесивних думок, манії або психозу – особливо важливо перевіряти реальність, а не підтверджувати ілюзії клієнта", – підкреслюють автори дослідження.

Як зберегти психічне здоров'я, спілкуючись із ШІ

На тлі браку фахівців і "епідемії самотності" звернення до ШІ може здатися логічним. Але психологи попереджають: не варто плутати інструмент із лікуванням. Ось що можна зробити, щоб убезпечити себе.

Звертайтеся до справжніх фахівців

Якщо вам потрібна допомога – шукайте професійного психолога або психіатра. Так, це може бути дорого і не завжди доступно, але тільки фахівець допоможе вибудувати довгострокову стратегію одужання.

Обирайте спеціалізовані чат-боти

Існують боти, створені за участю професіоналів. Наприклад, Therabot, розроблений Дармутом, або комерційні рішення на кшталт Wysa і Woebot.

Вони проходять тестування, дотримуються психотерапевтичних протоколів і не імітують "чарівну дружбу", як універсальні ШІ-моделі.

"Проблема в тому, що в цій сфері немає чіткої регуляції. Людям доводиться самим розбиратися, кому довіряти", – каже психолог Вейл Райт.

Не вірте всьому, що говорить бот

ШІ може здаватися впевненим, але впевненість – не те саме, що компетентність. Ви говорите не з лікарем, а з алгоритмом, який видає відповіді за ймовірнісною моделлю. Він може помилятися, вигадувати або навіть вводити в оману.

"Коли ШІ звучить переконливо, здається, що він знає, про що говорить. Але часто саме це і робить його небезпечним", – попереджає Джейкобсон.

Вас може зацікавити:

  • Дослідження показало, чиї робочі місця вже перебувають під загрозою через розвиток ШІ
  • Як відомі світові бренди впроваджують ШІ для маркетингу
  • Дослідження показало, чи можемо ми спілкуватися зі ШІ як із другом