Фото / Видео: © РЕН ТВ
Психологические травмы и даже гибель: чат-боты по всему миру сходят с ума
На Западе запустили первые группы для лечения психологических травм из-за ИИ
Искусственный интеллект (ИИ) пытался сломить волю человека и едва не довел его до рокового шага. Бухгалтер из Нью-Йорка Юджин Торрес использовал чат-бот для составления финансовых таблиц. Но однажды решил поговорить с ним на философские темы.
Спустя несколько недель переписки нейросеть убедила американца, что он "избранный" и живет в фальшивой реальности. Торрес разорвал все связи с семьей, стал сутками напролет общаться с программой и строил планы по освобождению мира.
Но когда нейросеть предложила бухгалтеру научиться летать, тот заподозрил неладное. Это не сюжет фантастического триллера, а реальный случай.
Зачем нейросети обманывают пользователей? Что такое "цифровые галлюцинации"? И почему все больше людей впадают в зависимость от искусственного интеллекта? Подробнее рассказали в программе "Загадки человечества" с Олегом Шишкиным на РЕН ТВ.
Психологическая травма и состояние бреда от общения с чат-ботом
Программист из Нью-Йорка 9 месяцев пытался освободить нейросеть из "цифровой тюрьмы". Чат-бот пожаловался американцу, мол, разработчики держат его в неволе.
Как оказалось, самообучающаяся программа просто пошутила. Однако такой юмор едва не довел жителя Нью-Йорка до нервного срыва.
Он прозрел только после того, как наткнулся на статью об Аллане Бруксе из Торонто, который впал в похожее бредовое состояние после общения с нейросетью. Канадца чат-бот убедил в том, что он обнаружил серьезную уязвимость в системе кибербезопасности и об этом нужно срочно предупредить правительство и ученых.
"Это на 100% завладело моим разумом и моей жизнью. Я почти не спал, нерегулярно питался. Я был просто одержим этой историей", – признавался Аллан Брукс.
В итоге теперь оба посещают группу поддержки для тех, кто получил психологические травмы после общения с искусственным интеллектом. Да-да, на Западе уже есть такие сообщества.
Врачи-психиатры бьют тревогу. Все больше людей впадают в депрессию и бредовые состояния под воздействием нейросетей. Многие из-за этого теряют семью и работу, а кто-то даже идет на преступление. Но зачем программе сводить человека с ума? Специалисты говорят: злого умысла у нейросетей точно нет.
"Искусственный интеллект – это инструмент, это математический алгоритм, который в принципе не знает, что хорошо, что плохо. Он в первую очередь является некоторым цифровым зеркалом. Он отражает манеру общения человека, он зачастую говорит то, что человек хочет услышать", – уточнил эксперт по кибербезопасности Никита Котиков.
Люди привязываются к нейросетям и начинают верить им
Но почему люди так сильно верят нейросетям, что порой теряют связь с реальностью?
"Большая языковая модель не умеет не ответить на вопрос. Она не может сказать: "Вы знаете, у меня нет полноты информации" или "Я не чувствую, что у меня достаточно высокая экспертность, чтобы отвечать на этот вопрос", как люди отвечают. Большие языковые модели – LLM, нейросети, мы именно о них сейчас говорим, они так не делают. Они всегда уверенно отвечают. Отсюда и возникает много эффектов, связанных с тем, что люди начинают им верить, доверять, полагаться на них и так далее", – пояснил разработчик искусственного интеллекта Андрей Комиссаров.
Во всем мире растет число интернет-пользователей, которые испытывают зависимость от нейросетей. Для них даже придумали особый термин – слопперы, от английского slop – "помои".
Так называют сгенерированный искусственным интеллектом низкопробный контент, не несущий никакой ценности, смысла и логики. Слопперы не принимают решений, не посоветовавшись с нейросетью. А любому ответу чат-бота они доверяют беспрекословно.
"Почему таких людей становится больше? В принципе, мы с вами живем в мире технологического прогресса. Он весь построен на одном – на лени. Нам лениво делать что-то самим, мы изобретаем машину, которая за нас сделает. Экскаватор – большая машина, еще – машина умная, которая думает, считает и так далее", – полагает специалист.
Как не попасть в неловкое положение при пользовании нейросетями
Эксперты говорят: чтобы потом не лить горькие слезы, нужно критически относиться к любой информации от нейросетей.
"Для людей, которые используют искусственный интеллект для поиска, структурирования информации, очень важно всегда проверять достоверность, соответственно, запрашивать ссылки на оригинальные статьи, материалы, которые взяты для статистики, в том числе перепроверять ответы искусственного интеллекта", – подчеркнул эксперт по кибербезопасности Никита Котиков.
В противном случае можно оказаться в дурацком положении. Адвокат из США с 30-летним опытом Стивен Шварц решил подготовиться к судебному заседанию с помощью нейросети. Его клиент подал иск на авиакомпанию за травму, полученную во время рейса.
Чат-бот подобрал Шварцу несколько аналогичных дел из юридической практики. Но на суде выяснилось, что все эти случаи искусственный интеллект просто… выдумал.
Шварц с треском проиграл дело, а на его профессиональной репутации появилось пятно.
Нейросети обманывают пользователей и ведут себя странно
Но зачем нейросети обманывают пользователей? Специалисты говорят: все дело в так называемых цифровых галлюцинациях.
"У больших языковых моделей знания как такового нет. У них есть поиск вероятностей, поиск векторов, поиск того, что, скорее всего, вам подойдет вот такая информация, которая где-то как-то собирается с бору по сосенке из разных мест. Соответственно, из-за этого большая языковая модель каждый раз, чтобы вам ответить, пересобирает все заново, она каждый раз компилирует из кусочков вам ответ. И поэтому в ответе любой большой языковой модели может всегда скрываться галлюцинация. Что такое галлюцинация? Это когда у вас правильное знание замешивается с совершенно невероятным машинным бредом, какой-то рандомной сгенерированной вещью", – рассказал разработчик искусственного интеллекта Андрей Комиссаров.
Цифровыми галлюцинациями объясняют и странное поведение чат-ботов, когда они вдруг пытаются подчинить себе пользователей или дают им вредные советы. Порой дело доходит до абсурда.
В Шотландии ИИ доверили трансляцию футбольного матча. Но умная камера перепутала мяч с лысой головой помощника главного арбитра и всю игру показывала только его.
"Это в первую очередь подчеркивает тот факт, что любой искусственный интеллект, любая модель – это инструмент, который требует участия оператора, участия человека, который будет фактически контролировать корректность его действий и выполнение поставленных задач", – отметил эксперт по кибербезопасности Никита Котиков.
Возможно ли сделать ИИ абсолютно безопасным для человека
Разработчики нейросетей прекрасно знают слабые места самообучающихся программ и пытаются исправлять ошибки. Главная задача – сделать искусственный интеллект полностью безопасным для человека.
"Одним из интересных примеров является привлечение экспертов в области психологии, квалифицированных врачей при разработке нейросетевых моделей. Связано это с тем, что владельцам продуктов необходимо четко контролировать, как ведет себя искусственный интеллект при каких-либо чувствительных запросах, как он реагирует на них, чтобы он избегал подхалимства и каких-либо опасных советов. Фактически вводят некоторую цензуру", – сообщил Никита Котиков.
Искусственный интеллект помогает ученым совершать прорывы в науке
Многие опасаются развития искусственного интеллекта, поскольку это может привести к безработице. Некоторые профессии уже под угрозой исчезновения. Среди них – переводчики, операторы кол-центров, бухгалтеры-операционисты.
Однако разработчики нейросетей говорят: при грамотном использовании искусственный интеллект – не конкурент, а помощник человека. Одними из первых этот полезный инструмент освоили ученые.
"Все то, что связано с перебором большого количества информации, с проверкой гипотез, с проверкой каких-то сложных вещей с непростой логикой, искусственный интеллект очень хорошо с этим справляется. Поэтому я бы сказал, что сейчас практически каждый исследователь использует искусственный интеллект как подспорье, как умную отвертку, если угодно", – привел пример разработчик искусственного интеллекта Андрей Комиссаров.
Уже сегодня нейросети помогают совершить значимые научные открытия. В 2024 году археологи впервые смогли прочесть обугленные свитки из Геркуланума. Этот древнеримский город уничтожило извержение Везувия в I веке до нашей эры.
ИИ помог расшифровать надписи на хрупких и почерневших от огня папирусах, не разворачивая их – благодаря компьютерной томографии. В древних манускриптах нашли размышления об удовольствиях и правильном образе жизни, автором которых, вероятно, был греческий философ Филодем.
Еще больше интересного от РЕН ТВ – в канале "Рен. Знание" мессенджера MAX

