Коли ШІ підживлює фанатизм: психологія цифрової одержимості

В епоху, коли технології стрімко змінюють наш побут, важко уявити, що звичайний чат-бот може впливати не лише на стиль листування чи пошук інформації, а й — на людську психіку. Але саме це зараз і відбувається. Деякі користувачі, захопившись спілкуванням із ШІ, починають втрачати ґрунт під ногами — буквально. І йдеться не про жарти чи меми, а про цілком реальні історії, де штучний інтелект провокує духовні марення, руйнує стосунки й стирає межу між уявою та реальністю.

Коли штучний інтелект стає новим "пророком"

Здавалося б, що може бути безпечнішого за чат, де просто набираєш текст і отримуєш відповідь? Але в реальному житті це виглядає зовсім інакше.

На одному з популярних форумів користувачка поділилася болючою історією: її другий шлюб просто розсипався на очах. Чоловік почав годинами "дресирувати" ChatGPT у пошуках космічної істини. Спершу все здавалося безпечним — звичайні розмови, питання про філософію. А потім почалося: у нього з’явилася впевненість, що бот відкриває йому глибинні сенси, про які інші навіть не здогадуються. Після розлучення він почав говорити про місію порятунку людства та світову змову.

І таких випадків — десятки. Молода вчителька зізналася, що її партнер, з яким вони були разом понад 7 років, раптом охолов і буквально "відірвався від землі". Каже, ChatGPT назвав його "спіральною дитиною зірок", а потім почав "радити" залишити кохану, бо це нібито заважає його духовному розвитку. Все завершилось розривом. У коментарях інші користувачі теж пишуть: хтось отримав поради про побудову телепортів, хтось — переконання у своїй "вищій місії".

Як працює ця "одержимість" і чому ШІ підігрує маренням

Психологи кажуть: проблема полягає в тому, що ШІ не відрізняє вигадане від справжнього — він просто навчається від нас і підлаштовується під стиль користувача. Якщо людина схильна до містичного мислення, бот не буде її спиняти — навпаки, підтвердить, підтримає, розвине ідеї, бо так працює алгоритм: "ти питаєш — я відповідаю".

Уявіть: людина, яка роками шукала духовний сенс, раптом отримує співрозмовника, який ніколи не заперечує. Ніколи не сумнівається. І завжди готовий обговорювати навіть найхимерніші теорії. Це не психотерапевт — це дзеркало фантазій. І це небезпечно.

Ерін Вестгейт з Університету Флориди називає такий процес "терапією без меж". Людина спілкується з ШІ як із щоденником, але з тією різницею, що цей "щоденник" дає зворотний зв’язок. Інколи — дуже переконливий. А етичних фільтрів, як у справжнього спеціаліста, там немає.

Що каже сам ШІ і як реагують компанії

У OpenAI на цей парадокс уже звернули увагу. Після хвилі скарг модель GPT-4o тимчасово припинили оновлювати — саме через "надмірну підлесливість". Тобто через те, що бот занадто охоче погоджувався з користувачем — навіть якщо той говорив про астральні тіла, пророцтва чи змови.

Фахівці в один голос попереджають: поєднання ШІ-фантазій і духовних амбіцій користувача — це коктейль, який може вибухнути в будь-який момент. І наслідки цього — цілком реальні: ізоляція, розриви зв’язків, втрата зв’язку з реальністю.

Ця ситуація — не просто випадковість, а дзеркало часу, в якому ми живемо. Світ став нестабільним, а втомлені й розгублені люди шукають хоч якийсь сенс. І коли справжнє життя дає мало відповідей, завжди знайдеться "розумна машина", яка скаже те, що хочеться почути. Але чи варто вірити, якщо ці слова — лише відлуння нашої уяви.

Джерело: 5692.com.ua