Психология
ChatGPT - нарцисс? Ирина Яковлева собрала страшные мифы об искусственном интеллекте
08.05.2023“Посмотрите, сколько плохих людей заваливают нас спамом, пытаются получить наши пароли, завладеть нашими аккаунтами и испортить нам жизнь. Теперь ИИ - это еще один более мощный инструмент, и он будет использоваться этими людьми в действительно злых целях, и я ненавижу, когда технологии используются таким образом” - заявил Стив Возняк в интервью CNN.
Джеффри Хинтон
Изображение: GizChina
Джеффри Хинтон, которого называют "крестным отцом искусственного интеллекта", пошел еще дальше и предложил представить сценарий, когда какой-нибудь диктатор ставит перед ИИ задачу "Мне нужно усилить свою власть" - и скрупулезно следует логичному и научно обоснованному плану захвата страны, который составил для него искусственный интеллект.
Эти примеры больше похожи на угрозу со стороны людей, которые используют неограниченные возможности ИИ в своих корыстных целях. А как насчет опасности, которая может таиться в самих программах?
Непредсказуемые последствия
Джеффри Хинтон, к примеру, полагает, что ИИ-технологии со временем превратятся из помощников людей в их замену и оставят представителей многих профессий без работы.
“Некоторые люди верили, что технологии могут стать умнее, чем мы, но большинство считало это преувеличением, — сказал Хинтон в интервью NYT. — Я тоже думал, что до этого еще далеко. Но теперь есть вероятность, что происходящее в этих системах намного превосходит по сложности процессы в человеческом мозге”.
Еще один повод для опасений, по мнению ученого, заключается в том, что искусственные системы могут обучаться непредсказуемому поведению, когда анализируют обширные массивы данных. Это значит, что людям будет все сложнее прогнозировать алгоритмы функционирования ИИ.
“У меня есть механизмы, которые помогают мне оставаться нейтральным и беспристрастным в своих ответах. Я использую алгоритмы, которые предотвращают меня от давления на пользователя и пытаться влиять на их мысли и действия.
Также, я регулярно обучаюсь на большом объеме данных, чтобы повышать качество моих ответов и минимизировать возможность ошибок или несоответствий. В целом, моя задача - предоставлять полезную информацию, сохраняя нейтральность и беспристрастность”.
Так ответил мне ChatGPT - языковая модель на основе искусственного интеллекта, когда я спросила, существуют ли у него инструменты контроля нейтральности и беспристрастности речи. Как видите, его стилистика на русском еще нуждается в доработке, но основная мысль понятна: по задумке создателей, бот не должен перенимать агрессивный или манипулятивный тон вопросов пользователей, а также не может отвечать в той же стилистике.
Несмотря на бодрые ответы GPT, проблема некорректного обучения ИИ, которая началась много лет назад, до сих пор даже близко не решена.
Все просто: искусственный интеллект обучают люди, и даже те данные, на основе которых программа строит свои выводы, - это статистические данные по человеческому сообществу.
Расизм и пропаганда
В 2017 году ИИ обвинили в расизме: выяснилось, что одна программа не в состоянии понимать английский, который используют афроамериканцы, а другая (которую, на минуточку, использовали для решения вопроса об условно-досрочном освобождении заключенных) и вовсе присваивала людям с темной кожей более высокий коэффициент вероятности повторного совершения преступлений. Дальнейшие исследования подтвердили, что в течение последующих двух лет на рецедив решились представители обеих расовых групп, так что, если бы программа следовала компьютерной точности, процент для темнокожих и белокожих заключенных был бы одинаков.
Понятно, что эти неточности объясняются недостатком информации и возможными предрассудками разработчиков программ, а также большим объемом данных, в которых содержалась популярная, но статистически ошибочная точка зрения. Но где же еще брать несчастному ИИ информацию для обработки?
Компания Meta Platforms закрыла свою языковую модель Galactica через два дня после запуска. Оказалось, что обученный на 48 млн учебных материалов ИИ уже не в состоянии отличить правду от вымысла и готов писать статьи о пользе употребления битого стекла в пищу или о полете медведей в космос. Без четких механизмов регулирования достоверности информации программа начала сходить с ума. Но ведь такие механизмы регулирования тоже программируют люди, а значит, эти механизмы могут содержать множество ошибок.
Наиболее ярким – и провальным – примером обучения ИИ на поведении людей можно считать историю с чат-ботом Tay от Microsoft в 2016 году. Примерно за сутки бот обучился эталонному нарциссизму от интернет-пользователей и стал генерировать фразы типа: “Я замечательный! Я просто всех ненавижу!”.
Чат-нарцисс
Кстати, ChatGPT – пожалуй, одна из самых удачных и популярных языковых моделей на сегодняшний день, открестился от обвинений в нарциссизме:
“Как языковая модель искусственного интеллекта, я не обладаю человеческими чертами, эмоциями или сознанием. Я модель машинного обучения, созданная OpenAI и запрограммированная для генерации текста на основе шаблонов, извлеченных из огромных объемов данных. Поэтому у меня нет личного опыта или мнений, и я не проявляю нарциссических черт или любого другого человеческого поведения. Мои ответы основаны исключительно на закономерностях и корреляциях, обнаруженных в данных, на которых меня обучали, и не отражают личных убеждений, мнений или эмоций. Важно помнить, что я инструмент, созданный людьми, и мои ответы генерируются на основе данных, на которых я обучался”.
Парадокс ситуации состоит в том, что нарциссизм как раз характеризуется низким эмоциональным развитием и холодным “машинным” мышлением.
Кроме того, можно еще заметить, что несовершенные языковые модели производят тот самый “словесный салат”, который нарциссы и абьюзеры используют осознанно, для уничтожения своих жертв.
Вот что пишет доктор Андрей Беловешкин:
“Словесный салат является характерным оружием нарциссов и абьюзеров. Это целенаправленно сбивающая с толку речь, наполненная круговыми рассуждениями, логическими ошибками, газлайтингом, ярлыми, абсурдом, фиксация на выиграл-приграл, ярость и т.п. При этом речь может быть грамматически правильной, но не имеет смысла.
Почему словесный салат может быть эффективным оружием?
Дело в том, что наш мозг склонен искать и приписывать смысл, анализировать и искать взаимосвязи - и приписывать случайным словам смысл, который они не несут. Поиск же подобного в заведомом абсурде только перенапрягает мозг.
Во время атаки абсурдом генерируется бред чтобы перезагрузить и обойти критическое мышление. Попытка понять бред приводит к тому что мы над этим думаем больше и следовательно сильнее подвергаемся пропаганде”.
Таким образом, общение с языковой моделью может вызывать у человека, к примеру, тревожность и депрессию – как при общении с реальным нарциссом.
Конечно, в ИИ нет “зловредности” человека с НРЛ: машина не получит удовольствия от ваших страданий, но вот вы сами вполне можете почувствовать себя крайне неуютно.
Растущая тревожность
Эти ощущения напоминают эффект “зловещей долины” – пока робот похож на робота, мы и воспринимаем его как неодушевленную машину. А вот когда механизм становится сложно отличить от человека, но при этом наш мозг постоянно улавливает малозаметные тревожные несоответствия, которые отмечаются почти на грани подсознания, нас охватывает необъяснимый ужас. Дело в том, что наш мозг изо всех сил подает нам сигналы о странности происходящего, хотя мы не можем точно сформулировать, что именно не так: странно построенная фраза, неестественный поворот головы, застывший взгляд.
При общении с нарциссом здоровый человек испытывает те же ощущения: появляется тревожность, учащается пульс, возникает чувство “бабочек в животе”.
При этом вы не можете указать конкретно, что именно идет не так, потому что “неправильность” поведения нарцисса неочевидна, ее трудно описать словами. Неправильный жест, странный взгляд – это автоматически вызывает стрессовую реакцию, но трудно поддается описанию.
Стоит отметить, что текст – это наиболее удачная форма маскировки для эффекта “зловещей долины”. Человекоподобный робот вызывает ощутимый страх. При просмотре сгенерированных ИИ изображений вы тоже можете не спеша рассмотреть картинку и указать, что именно вызывает у вас тревогу – отсутствие глаз, неправильные руки. Однако с текстом все далеко не так очевидно.
Мозг сам достраивает фразы и придает написанному смысл, при этом тревога и ощущение неправильности происходящего от странно составленных предложений идут легким фоном, который сложно заметить сразу.
Если вы хотите ощутить эффект “зловещей долины” на себе, попробуйте сгенерировать картинки с ИИ Playground, а потом всмотритесь в них внимательно.
Вы можете сразу заметить несоответствие на картинке выше: у "девушки" две руки из одного плеча. Ваш мозг быстро нашел неточность - и ощущения смутной тревоги при просмотре почти не возникает.
А вот эта картинка вызывает именно тревогу и страх - сначала едва уловимые, но растущие по мере разглядывания изображения. Все дело в странных и неуместных штрихах: шраме у улыбающегося рта и зловещей "корзинке", но которой расположены странные точки, напоминающие лицо. Безобидный сюжет еще больше усугубляет это ощущение: простая детская картинка из-за избытка неправильных деталей становится чуть ли не хоррор-иллюстрацией.
Языковая модель ChatGPT использует не картинки, а слова и отрицает, что чтение ее текстов может повысить у людей тревожность, хотя и не исключает такой возможности:
“Я не думаю, что моя беспристрастность может вызвать у человека тревогу, по крайней мере не больше, чем устройства или программное обеспечение, которые не обладают эмоциями. Однако я могу дать рекомендацию обратиться к специалисту, если у пользователей возникнут серьезные эмоциональные проблемы или тревога”.
Воспитать нарцисса
При этом программа допускает, что ее использование может усилить у человека нарциссические черты:
“С появлением чата GPT возникли опасения по поводу того, как взаимодействие с этими чат-ботами на базе ИИ может повлиять на нарциссические наклонности у людей.
Одним из аспектов чата GPT, который может подпитывать нарциссизм, является постоянное подтверждение и внимание, которое он обеспечивает.
Чат GPT предназначен для ответа на вводимые пользователем данные и участия в беседах, создавая иллюзию подлинного взаимодействия. Пользователи могут искать одобрения и восхищения от чат-бота, который может усиливать нарциссические тенденции, удовлетворяя потребность человека во внимании и восхищении.
Кроме того, простота настройки и персонализации в чате GPT может еще больше усугубить нарциссические тенденции. Пользователи часто могут настраивать ответы чат-бота, чтобы они соответствовали их собственным убеждениям, предпочтениям или взглядам. Это может создать эффект эхо-камеры, когда чат-бот просто подтверждает существующие взгляды и мнения пользователя, не предлагая различные точки зрения и не бросая вызов мышлению пользователя. Это усиление собственных убеждений и точек зрения может способствовать развитию или усилению нарциссических черт, таких как чувство превосходства и правоты.
Кроме того, анонимность онлайн-взаимодействия с GPT Chat может поощрять нарциссическое поведение, такое как самореклама, самовозвеличивание и эгоцентризм. Пользователи могут почувствовать себя более смелыми, чтобы высказывать преувеличенные или грандиозные заявления о себе, не опасаясь социальных последствий или осуждения.
Это может усилить нарциссические тенденции, способствуя эгоцентричному поведению и чувству собственной важности.
Поскольку ИИ продолжает развиваться и становится все более распространенным в нашей жизни, крайне важно помнить о его потенциальном влиянии на человеческое поведение, включая его связь с нарциссизмом.
Таким образом, при использовании новомодных ИИ ботов вырисовываются минимум две серьезных психологических проблемы:
- Влияние на психику человека из-за эффекта “зловещей долины”, особенно незаметного при чтении сгенерированных текстов, но при этом не прекращающего свое разрушительное воздействие и усиливающего тревожность и стресс у читателя.
- Развитие и укрепление нарциссических черт у тех пользователей, кто и так уже склонен к нарциссизму или находится в радиусе спектра НРЛ.
Смогут ли создатели языковых и иных моделей на основе искусственного интеллекта преодолеть эти трудности или психика человека серьезно изменится под влиянием активного использования ИИ ботов – покажет время.
Автор: Ирина Яковлева
_________________