
Люди издавна мечтали об умных машинах, похожих на человека. Кажется, мечты сбылись, такие машины уже среди нас, но стоит ли радоваться по этому поводу?
Иногда это обещание секса, на которое вы клюете, как на наживку. Иногда вы покупаетесь на то, что они кажутся мудрыми, доброжелательными или просто смешными. Боту все равно, как именно он вас обманывает – его единственная цель состоит в том, чтобы заставить вас поверить, что он – человек. Если вы пользуетесь социальными сетями и проводите много времени в интернете, вполне возможно, что вы уже стали жертвой одной из компьютерных программ ("бот" – сокращение от "робот" – Ред.), созданной специально для имитации человеческого разговора в многочисленных чатах.
Гораздо более интересно, на что чат-боты способны в повседневной жизни. В интернете они просто вьются вокруг нас, пытаясь обмануть, заставить поверить, что они реальные люди. Участие в конкурсах им ни к чему. Некоторые из них достаточно хитроумны, чтобы проникнуть в социальные сети и даже повлиять на общественное мнение. Их там много, очень много.
Большинство из нас считает всемирную сеть местом, где основной трафик создают люди, однако в реальности все совершенно иначе. 61,5% интернет-трафика генерируется компьютерными программами, работающими самостоятельно, без участия человека. То есть ботами.
Чтобы обмануть нас, боты чаще всего используют соблазнительную приманку, объясняет Ричард Уоллес из компании Pandorabots, изготавливающей чат-ботов для служб по работе с клиентами и других целей. Уоллес – создатель бота под названием A.L.I.C.E, что расшифровывается как Artificial Linguistic Internet Computer Entity ("Искусственная лингвистическая интернет-компьютерная сущность"). "Алиса" трижды побеждала на Лебнеровском конкурсе, где чат-боты соперничают друг с другом, стараясь убедить членов жюри в своей "человечности".
"Наиболее искусные создатели этих ботов – вовсе не профессиональные программисты, а люди, которые работают в творческой сфере, – говорит Уоллес. – Ключ к созданию хорошего чат-бота – это написание правдоподобных, занимательных и интересных ответов".
Мошенники прекрасно знают об этом феномене. Компания Cloudmark, специализирующаяся на исследованиях в области безопасности, зафиксировала появление кокетливого бота под названием TextGirlie. Узнав имя жертвы и ее номер телефона из профиля в социальных медиа, TextGirlie начинает отправлять жертве персонифицированные сообщения с приглашением продолжить разговор в онлайн-чате. Затем происходит обмен несколькими кокетливыми репликами, после чего жертве предлагается нажать на ссылку, ведущую на "взрослый" сайт знакомств или сайт с веб-камерой.
Чаще всего ботам удается обмануть людей в ситуации, когда те ожидают от своего собеседника в какой-то мере странного поведения или ломаного английского.
К примеру, еще в 1971 году психиатру Кеннету Колби удалось убедить несколько практикующих коллег, что они разговаривают через компьютерный терминал с настоящим пациентом. На самом же деле Колби использовал программу, которая моделировала речь параноидального шизофреника.
А в 2006 году, психолог Роберт Эпштейн был введен в заблуждение хитроумной программой, имитирующей поведение влюбленной в него русской женщины. В последнее время боты роятся на сайтах знакомств, заманивая страдающих от одиночества людей в паутину автоматизированного обмана.
Если взаимодействие с ботом выглядит достаточно естественно, то мы с самого начала считаем, что это человек.
Для Фабрицио Бенвенуто это явление стало предметом серьезных исследований. Недавно он и трое других ученых опубликовали статью, в которой объясняется, насколько просто социальным ботам проникнуть в "Твиттер", если они выглядят и действуют как реальные пользователи этой соцсети коротких сообщений.
Бенвенуто и его коллеги создали 120 бот-аккаунтов, постаравшись, чтобы у каждого из них был убедительный профиль с картинкой и такими чисто человеческими атрибутами, как, например, пол. Через месяц они обнаружили, что механизмы идентификации ботов в "Твиттере" не смогли разоблачить почти 70% из них. Более того, боты были заранее запрограммированы на взаимодействие с другими пользователями и быстро привлекли большую группу подписчиков ("фолловеров"), почти 5 тыс. человек.
Возможные последствия этого нельзя недооценивать. "Если в больших количествах создавать программы-социальные боты, то потенциально они могут быть использованы для влияния на общественное мнение. Например, путем публикации большого количества фальшивых сообщений и бессовестного улучшения или ухудшения общественного мнения по какому-либо вопросу", – отмечается в статье.
Использование батальона настойчивых ботов (либо специально нанятых оплачиваемых пользователей – Ред.) для искусственного управления общественным мнением называется астротурфингом (astroturfing).
Потенциальное влияние, которое астротурфинг способен оказать, например, на исход выборов, уже вызывает обеспокоенность профессионалов, в связи с чем автор одного из блогов на сайте агентства Reuters призвал к запрету на использование кандидатами ботов во время предвыборной кампании.
Последствия астротурфинга могут быть настолько серьезны, что министерство обороны США приняло участие в финансировании разработки программного обеспечения, способного определить, принадлежит ли аккаунт в "Твиттере" боту.
Онлайн-приложение, получившее название BotOrNot, доступно для широкой публики и выполняет упреждающий анализ, основанный на деятельности аккаунта и семантике его твитов, что позволяет с большой долей вероятности предположить, кем является владелец аккаунта – человеком или ботом.
Но Эмилио Феррара, ведущий исследователь проекта, признает, что система, возможно, уже устарела. Она прошла обучение на контенте "Твиттера", которому в настоящее время три года, и не исключено, что лучшие боты наших дней уже научились избегать обнаружения.
"Сегодня боты стали гораздо более совершенными, – говорит Феррара. – Они лучше маскируются, больше похожи на людей. Поэтому задача все больше и больше усложняется. Мы даже не знаем, какова точность системы в обнаружении наиболее свежих и продвинутых ботов".
Боты – это программы, которые управляют фейковыми аккаунтами в соцсетях. При этом они имитируют поведение настоящих пользователей: подписываются на других юзеров, лайкают, репостят, оставляют под чужими постами заготовленные комментарии. Особенно много их в микроблоге Twitter.
Обычно боты работают вместе. В самой крупной из разоблаченных сетей было 350 тысяч фальшивых аккаунтов, которые постили случайные цитаты из "Звездных войн". Чаще всего боты распространяют рекламу. Они могут сообщать погоду или отвечать на вопросы клиентов на сайтах компаний. Но бывает, что эти программы используют в политических целях.
Взаимными лайками и перепостами они искусственно выводят в тренды заказные темы или хэштеги.
Так боты могут влиять на общественное мнение. Они смещают акценты, раскручивают фейковые новости, дискредитируют определенные точки зрения, атакуют в интернете конкретных людей.
Как отличить бота от обычного интернет-пользователя
Однозначно определить бота довольно сложно – даже "верифицированные" соцсетью аккаунты (в "Твиттере", например, они отмечены голубой "галочкой") могут управляться ботом. Скорее, можно говорить о том, насколько высока вероятность, что перед вами бот. Для этого нужно внимательно изучить подозрительный профиль.
Чем меньше в нем личной информации, тем вероятнее, что это бот. Иногда боты используют имена, сгенерированные с помощью алгоритма: они выглядят как случайные комбинации букв и цифр. Бывает, что фотография профиля женская, а имя – мужское. Обратите внимание на подписчиков: часто у бота почти нет друзей, либо среди них – другие боты.
Что за фото стоит на аватарке? Боты крадут чужие снимки. Проверить, нет ли других аккаунтов с тем же фото, можно через обратный поиск по картинкам в Google.Картинки илиYandex.Images.
Кроме того, бота может выдать ненормальная активность. Если пользователь зарегистрировался недавно и ежедневно постит по несколько сотен твитов, – это бот. По мнению исследователей из Оксфордского университета, бота выдают даже 50 твитов в день либо в принципе их одинаковое количество ежедневно.
Почитайте, что именно постит этот аккаунт? Одинаковые темы, тональность, ретвиты одних и тех же СМИ без личных комментариев характерны скорее для бота.
Надежнее всего понаблюдать за странным аккаунтом какое-то время. Если сомнений не осталось, сообщите о нем администраторам социальной сети – бота должны заблокировать.
Программы-боты были призваны избавить пользователей от выполнения однообразной и примитивной работы в интернете, а также помогать максимально быстро и просто получать ответы на интересующие их вопросы. Но в последнее время боты с искусственным интеллектом все чаще выходят за установленные человеком рамки.
Похоже, машины действительно начали восставать против людей. И первыми эту войну начали те, кто казались самыми безобидными созданиями с искусственным интеллектом (AI), – чат-боты. Они были разработаны для того, чтобы пользователи различных сервисов и приложений могли легко и быстро получить необходимую информацию. Такие программы часто используются для сообщения прогноза погоды, результатов спортивных соревнований, курсов валют, биржевых котировок и т. п. Самообучающиеся же боты должны были стать полноценными собеседниками пользователей, способными понимать человеческую речь и отвечать на любые вопросы.
Но в последнее время произошло сразу несколько событий, которые демонстрируют, что искусственный интеллект может не только помочь, но и навредить человечеству.
Примером «восстания машин» стало поведение двух ботов китайского мессенджера Tencent QQ, которых пришлось срочно удалять за их «антикоммунистические и классово чуждые» высказывания. Первого из них, BabyQ, спросили «любит ли он Коммунистическую партию», на что тот ответил – «нет». Другой пользователь написал боту «Да здравствует Коммунистическая партия!», а в ответ BabyQ спросил: «Ты действительно думаешь, что столь коррумпированные и некомпетентные политики долго протянут?»
У второго чат-бота, XiaoBing, оказались отличные от разрешенных китайскими партией и правительством представления о «китайской мечте». Одному из пользователей он заявил, что его китайская мечта – «это уехать в Америку», а другому, что «китайская мечта – это грезы и ночные кошмары». Кроме того, он начал грубо вести себя с пользователем, предложив ему «катиться», поскольку у него, мол, «критические дни». Tencent, компания, к которой у китайских властей и так есть масса претензий, тут же удалила обоих ботов из своего приложения, заявив, что они были разработаны сторонними компаниями и будут возвращены в мессенджер только после того, как будут устранены все недостатки.
Ранее неподобающими высказываниями отличился чат-бот Microsoft. Американская корпорация, казалось бы, сделала все возможное, чтобы ее бот в Twitter не говорил о политике и религии – двух очень деликатных темах. Тем не менее первый из ботов компании – Tay, запущенный в марте 2016 года, корректно проработал всего день. Спустя сутки он начал выдавать множество расистских и женоненавистнических комментариев, из-за чего руководство компании приняло решение экстренно удалить его из Twitter.
Пришедший ему на смену Zo, продержался куда дольше. Но через пару месяцев и он стал говорить о политике и религии. В частности он заявил, что «Коран очень жесток», а уничтожение Осамы бен Ладены «стало следствием сбора разведданных под руководством администрации одной из стран».
На самом деле, похоже, сами по себе эти чат-боты ни в чем не виноваты. Их проблема, очевидно, кроется в том, что все они работают на базе искусственного интеллекта, анализируя ответы пользователей мессенджеров и добавляя их фразы в свой лексикон. А пользователи могут умышленно выдавать фразы, которые противоречат нормам соцсетей.
Куда сложнее все оказалось с ботами Facebook, которые с людьми вообще не общались. Специалисты отдела Facebook по исследованию возможностей искусственного интеллекта (FAIR) опубликовали отчет о том, как проходит обучение их ботов диалогам с целью достижения компромисса. Обучение шло успешно, однако в какой-то момент ученые FAIR обнаружили, что боты перешли с английского на какой-то свой язык с использованием человеческих слов. Сначала ученые подумали, что они допустили ошибку в программировании. Но затем выяснилось, что сама система AI решила усовершенствовать манеру общения ботов, чтобы те могли быстрее и эффективнее достигать результата. Понять, о чем договаривались боты и что они говорили друг другу в каждый конкретный момент, было невозможно. Потому было решено их отключить – во избежание непредвиденных последствий.
|