Создан искусственный интеллект, способный анализировать комментарии в сети

Создан искусственный интеллект, способный анализировать комментарии в сети
  Возможно, нейросеть "видит" радостные и ругательные комментарии как-то так... Фото: stock.adobe.com

«Умные» нейросети, уже научившиеся сочинять стихи или, как сообщало FederalCity, рисовать рекламные баннеры, осваивают все новые сферы деятельности. Одна из них, как утверждают ее создатели, способна анализировать тексты и комментарии, вывешенные в интернете – распознавать их эмоциональную окраску, «понимать», дает ли автор комментария позитивную или негативную оценку тому, о чем пишет, иронизирует ли он над чем-то или пишет серьезно

Эту удивительную нейросеть разработали в российской компании «LiveDune», специализирующейся на изучении социальных сетей и анализе публикуемой в них информации. Предполагается, что она будет анализировать тенденции в современном русском языке, следить, как он развивается, меняется, какие в нем появляются новые сленговые слова и выражения и так далее. Для этого разработчики «научили» ее не только современному русскому литературному языку, но и всевозможным жаргонизмам, заимствованным словам и ругательствам, включая матерные. 

Здание в Краснодаре, где находится офис "LiveDune". Фото: Яндекс.Карты 

Создатели утверждают, что теперь их нейросеть, которой дали имя «Ольга Станиславовна» в честь учительницы генерального директора компании Игоря Красюка, знает все самые современные слова и выражения, употребляемые русскоязычными пользователями в интернете. Так что она сможет читать и анализировать миллионы комментариев и делать выводы о происходящих в русском языке процессах. Впрочем, «работать» этот искусственный интеллект будет не один, а с «коллегами» – специалистами-филологами. 

Новость об искине, способном распознавать комментарии с положительной или отрицательной окраской, вызвала у интерет-юзеров не только интерес, но и беспокойство – не станет ли «Ольга Станиславовна» использоваться для того, чтобы выискивать с соцсетях недовольных властями, после чего информацию о них будут передавать «куда следует»? И хотя сотрудники компании «LiveDune» ни о чем таком не сообщали, мысль о мониторинге разговоров в интернете при помощи нейросетей – если не «Ольгой Станиславовной», то другими подобными, которые наверняка будут созданы в недалеком будущем – просто не может не прийти в голову. Ведь если искин, умеющий рисовать, уже заменил нескольких дизайнеров, почему искин, разбирающийся в тонкостях русского языка, не сможет заменить тех, кто проверяет соцсети на предмет нарушений тех или иных недавно принятых законов? 

Любой учитель был бы раз, если бы ученик так увековечил его имя. Фото: stock.adobe.com 

Тем более, что, как показывает практика, живые люди, занятые на такой работе, далеко не всегда выполняют ее тщательно. Например, по информации телеграм-канала «Baza», из нижегородского центра по противодействию экстремизму недавно уволили молодого лейтенанта по имени Кирилл, который должен был разбирать доносы на пользователей сети «ВКонтакте», но отнесся к этому делу недостаточно «добросовестно». Проще говоря, он не регистрировал полученные жалобы, отвечал их отправителям стандартными отписками, а своему начальству говорил, что все полученные им доносы были ложными и на самом деле те, кого обвиняли в экстремизме, не писали ничего незаконного. 

Однако, в конце концов, другие сотрудники центра, заподозрившие неладное из-за такой низкой «эффективности» Кирилла, сами прочитали посты и комментарии, на которые он получал жалобы, и посчитали многие из них «крамольными», так что против «нерадивого» лейтенанта теперь, возможно, заведут уголовное дело, а на его место наверняка возьмут более ревностного борца с «врагами народа». И если бы на подобной «работе» можно было применить искусственный интеллект, это наверняка посчитали бы более выгодным, чем нанимать живых людей, способных на сочувствие к жертвам доносов. 

При этом самая «умная» нейросеть, как и любая другая компьютерная программа, может ошибаться, давать сбои, о чем свидетельствуют, например, многочисленные утечки информации, освещаемые FederalCity. Так что последствия использования таких искинов, как «Ольга Станиславовна», «не по назначению» могут быть самыми страшными: от предъявленных людям ложных обвинений до разглашения этих обвинений на весь интернет. Остается только надеяться, что до этого не дойдет и искины-филологи будут делать то, для чего их создали – изучать развитие языка, облегчая работу специалистам.