Национальная служба экономической разведки

Национальная служба экономической разведки – это крупнейшая Российская организация, занимающаяся сбором, обработкой и анализом информации экономического характера о ситуации в различных секторах рынка, а также его участниках.
Национальная служба экономической разведки специализируется на комплексном информационно-аналитическом обеспечении ведущих предприятий Российской Федерации. Благодаря профессионализму и огромному опыту сотрудников службы, мы добиваемся самых лучших результатов в работе и гордимся нашим вкладом в защиту экономической безопасности предприятий России.
Служба имеет представительства в разных регионах России, включая города федерального значения.

Алло, гараж!

Россиян будут информировать об общении с роботом, а не с живыми сотрудниками контакт-центров компаний и банков. Это предусматривает законопроект о регулировании искусственного интеллекта. Как говорится, «свежо предание …»

 

 

Еще три года назад мы уже писали о подобной инициативе. Там действие предполагаемых законов должно было распространяться на коллекторские компании, банки и микрофинансовые организации. В начале каждого разговора должно было следовать предупреждение, что с человеком общается робот, и сообщать наименование или номер «интеллектуального агента». Закон должен был заработать с 1 января 2024 года. Но что-то подобного замечено не было.

Теперь законодательные инициативы идут на новый виток. Российские компании и госструктуры должны будут указывать, что общаются с гражданами по телефону или через интернет с помощью ИИ — если такие технологии применяются в их контакт-центрах. Это следует из законопроекта «О регулировании систем искусственного интеллекта», подготовленного рабочей группой, в которую входят депутаты Госдумы, представители бизнеса и деловых ассоциаций.

Если клиент или пользователь услуг общается с их поставщиком по телефону, ему следует предоставить возможность взаимодействия с оператором — человеком, а если через чат-бот в интернете — должно быть указание на автоматизированный характер формирования ответов и сообщений. В любом случае следует обозначить порядок направления претензий и обращений в структуру, применяющую ИИ.

Сегодня ИИ активно используется в call-центрах, чат-ботах, сервисах поддержки, но далеко не всегда пользователи осознают, что общаются не с человеком. В условиях, когда технологии становятся всё более реалистичными, вопрос честного уведомления выходит на первый план — как с этической, так и с правовой точки зрения.  Такое информирование поможет минимизировать риски манипуляций, особенно в чувствительных сферах — например, при финансовом консультировании, обслуживании уязвимых категорий граждан или предоставлении медицинской информации. Пользователь должен понимать, когда он получает автоматизированный ответ, чтобы адекватно оценивать его значимость, точность и возможные ограничения. Кроме того, наличие функции переключения на живого специалиста по запросу усиливает контроль со стороны клиента и снижает риск недопонимания. Это особенно актуально в борьбе с мошенничеством. Под видом ИИ-сервисов могут действовать злоумышленники, стремящиеся ввести человека в заблуждение, выманить личные данные или провести фишинговую атаку. При этом в поддержку часто обращаются люди в состоянии стресса и просто не могут разобраться, с роботом или человеком общаются, особенно это касается пожилых россиян. Неверное решение, подсказанное «человекообразным» помощником, способно оказаться фатальным. Пациент может оказаться не в состоянии правильно сформулировать запрос к ИИ своей страховой компании — так, чтобы получить на него ответ и последствия могут оказаться непоправимыми.

 

Крупные коммерческие организации, в первую очередь банки, маркетплейсы, операторы связи постоянно злоупотребляют ИИ при взаимодействии с клиентами. В ряде случаев они вовсе отказываются от call-центров и переводят всё общение с клиентами на голосовых помощников (ботов), а это, во-первых, не способствует оперативному решению проблем клиентов. Это актуально, например, в случаях с кредитными организациями, когда человек может стать жертвой мошенников и у него возникнет необходимость блокировки платежных средств, ограничения доступа в личный кабинет или запрета на совершение определенных действий. Общение с голосовыми ботами, имеющими ограниченный функционал, может вести к нарушению прав потребителя. По неофициальной статистике, наиболее распространенной командой для голосовых помощников на протяжении нескольких лет остается фраза «соединить с оператором», а положительные оценки взаимодействия с ними — это редкость, что в целом отражает уровень неудовлетворения людей от общения с автоматизированными системами в целях разрешения возникших вопросов.

Компании всё чаще стали подключать нейросети в систему поддержки пользователей и зацикливать всю платформу на ИИ, чтобы сэкономить на операторах. Это приводит к тому, что пользователи не могут достучаться до консультанта и получить поддержку от искусственного интеллекта в ряде случаев. Были случаи, когда ИИ давал неправильные рекомендации, которым следовал человек. Также нужно обязательно указывать, какая система ИИ применяется, потому что если дело касается какой-то системы поддержки, человек может передавать в нее свои персональные данные. А если это так, то они не должны уходить за границу. В силу того, что человек еще не прожил с роботами и алгоритмами длинную жизнь, разумно предупреждать его о факте столкновения с ИИ — в частности, при входящих звонках и иных случаях дистанционного взаимодействия. Это снимет тревожность и ускорит осознание человеком мысли о том, что в каких-то случаях системы ИИ удобнее и быстрее, чем другой человек.

 

 

По материалам Известия