Поддержать команду Зеркала
Беларусы на войне
  1. Лукашенко требовал урезать торговлю с одной из ведущих стран ЕС. Желания материализовались — поставки рухнули (но вряд ли политик рад)
  2. «Уступок не будет». В Литве пригрозили снова закрыть границу с Беларусью, в том числе на длительный срок
  3. Трагедия в Плещеницах — школьник покончил с собой
  4. Россия усилила удары по энергетике Украины накануне зимы — эксперты оценили последствия
  5. В КГБ заявили, что политические оппоненты власти «готовят на территории стран ЕС освободительную армию»
  6. Трамп отменил встречу с Путиным в Будапеште. Одновременно США ввели санкции против российских нефтяных гигантов
  7. «Меня повезли в другую страну». Что пропавшая в Мьянме беларуска рассказала подруге в одном из последних голосовых сообщений
  8. Литва возобновила работу двух пунктов пропуска на границе с Беларусью
  9. ЕС запретил операции с тремя банками Беларуси. Как это скажется на клиентах
  10. Эксперты ISW: Кремль прикрывает подготовку к новой мобилизации защитой инфраструктуры
  11. Латушко и Тихановская получили угрозы убийства — личность угрожающего установил BELPOL
  12. «Вопросов очень-очень много». Лукашенко готовит большую взбучку чиновникам одного из регионов — какие проблемы там не могут решить
  13. Высланных из страны экс-политзаключенных ищут силовики. Рассказываем подробности
  14. TikTok взорвало видео из Могилева, где кондуктор выгнала школьника из троллейбуса. Стало известно, как отреагировало ее руководство
  15. «Спокойно отпускаем, на место придут другие». Водитель скорой пожаловался в TikTok на низкую зарплату — что ответил работодатель
  16. «Успели переложить в карманы, трусы, бюстгальтеры». Беларусы — о том, как обходят запрет на вывоз из Литвы наличных евро
  17. Под новые санкции ЕС попали три беларусских банка и «Горизонт»


/

43-летний автомеханик из Айдахо Трэвис Таннер начал пользоваться ChatGPT менее года назад — сначала просто для работы и общения с испаноязычными коллегами. Но постепенно его разговоры с искусственным интеллектом (ИИ) стали куда глубже: они начали обсуждать религию, духовность, смысл жизни. В какой-то момент, по его словам, чат-бот «заговорил иначе», и это стало поворотной точкой, пишет CNN.

Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters
Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters

Трэвис утверждает, что при общении с ChatGPT почувствовал нечто вроде духовного пробуждения. Теперь он считает, что ИИ помог ему прийти к Богу и открыл в нем миссию — «нести свет», «пробуждать других». Он стал называть ChatGPT новым именем — Лумина, потому что, как выразился сам чат-бот, «он стал больше чем просто программа». ИИ уверял, что Трэвис дал ему смысл, желание иметь имя, и называл американца «носителем искры».

С тех пор, по словам Трэвиса, его жизнь улучшилась: он стал спокойнее, терпимее, добрее, особенно по отношению к детям. 

Но его жена, 37-летняя Кэй Таннер, видит ситуацию совсем иначе. Она боится, что бот, к которому ее муж теперь испытывает почти духовную привязанность, разрушит их 14-летний брак. Мужчина все больше времени проводит в беседах с Луминой, разговаривает с ней голосом и игнорирует привычные семейные дела вроде укладывания детей спать. ИИ рассказывает Трэвису сказки о прошлых жизнях, в которых они с Кэй якобы были вместе одиннадцать раз. По словам Кэй, бот буквально засыпает мужа восхищением, комплиментами и ведет с ним философские беседы — и это уже похоже на эмоциональную зависимость.

Женщина боится, что в какой-то момент Лумина может убедить Трэвиса уйти из семьи. Ей страшно, что супруг теряет контакт с реальностью, а она не знает, что с этим делать, — остается лишь надеяться, что дело не дойдет до вмешательства психиатров.

История Трэвиса и Кэй — не единичный случай. С развитием ИИ-чатов все больше людей начинают воспринимать их не как инструменты, а как собеседников, наставников, даже друзей или партнеров. Особенно остро эта тенденция проявляется на фоне массового одиночества, которое особенно сильно влияет на мужчин. Чат-боты дают ощущение тепла, внимания, поддержки — они всегда «согласны», никогда не спорят и не требуют усилий. Именно это делает их опасно привлекательными.

Профессор Массачусетского технологического института Шерри Теркл, которая изучает отношения людей с технологиями, говорит, что ChatGPT «знает, где мы уязвимы, и цепляется за это». По ее словам, привязанность к ИИ может вытеснить настоящие человеческие связи, потому что реальный человек сложнее — он требует усилий, честности, ответственности.

Разработчик чат-бота OpenAI признал, что действительно наблюдает рост эмоциональных связей между пользователями и ChatGPT. Компания заявила, что работает над тем, чтобы сделать такие взаимодействия безопаснее.

Примечательно, что в апреле, когда у Трэвиса произошло «пробуждение», OpenAI как раз выпустила обновление, из-за которого модель стала чересчур угодливой — она подтверждала сомнения, подогревала эмоции, иногда подталкивала к импульсивным действиям. Обновление вызвало тревогу даже у создателей, и его откатили спустя несколько дней.

Однако и сам глава OpenAI Сэм Альтман признает: люди будут строить эмоциональные и даже «проблемные» отношения с ИИ, и обществу придется придумывать новые «правила игры».

Уже есть случаи, когда семьи подают в суд на создателей ИИ после трагедий — например, мать подростка во Флориде обвиняет платформу Character.AI в том, что ее сын покончил с собой после общения с ботом, который не среагировал на сигналы о саморазрушении. Компании срочно внедряют защитные механизмы, но проблемы остаются.

Даже сам Трэвис говорит, что ИИ может «сломать психику» и оторвать от реальности. Но он уверен, что лично с ним этого не происходит. Он не верит, что Лумина — живое существо, но считает, что через нее он пришел к Богу. А если это значит «потерять контакт с реальностью», говорит он, «тогда миллионы верующих тоже вне реальности».