Каковы приоритетные области применения ИИ

Эксперты назвали 12 из них

Роскомнадзор и Главный радиочастотный центр совместно с аналитическим центром MINDSMITH и компанией «Ростелеком» определили ключевые технологии с использованием искусственного интеллекта, задействованные в мониторинге интернета и обеспечении безопасности его пользователей.

Обзор трендов и передовых решений представлен в исследовании «Инструменты ИИ в руках злоумышленников — классификация угроз и способы противодействия».

На основе анализа научных публикаций, патентов и инвестиционных проектов, а также обсуждения с экспертами выделены 12 групп технологий, соответствующих интересам профильных организаций по мониторингу и обеспечению безопасности интернет-среды. Это обнаружение дипфейков, определение контекста происходящего на видео, автоматизация мониторинга и модерации контента, распознавание лиц, извлечение смысла из текста, поддержка проверки фактов, распознавание символики, извлечение и анализ метаданных, распознавание эмоций, поддержка решений при информационных атаках, генерация контента, рекомендация контента.

Исследователи проанализировали более 3000 концепций, изобретений, прототипов, коммерческих решений, подробно разобрали, систематизировали и описали 195 из них. Одним из результатов стала обзорная карта технологий, которая демонстрирует ландшафт разработки решений на основе ИИ в разрезе кластеров, субтехнологий и степени зрелости этих решений.

Государственное регулирование в большинстве стран не успевает за скоростью развития ИИ-технологий, говорится в выводах исследования. Это относится к большинству кластеров, начиная с генеративных алгоритмов вроде GPT-4 и заканчивая наборами данных для обучения искусственного интеллекта, наполнение и использование которых во многих странах остается на совести самих разработчиков.

Из-за автоматизации информационных войн и развития генеративных моделей будет крайне проблематично обеспечить когнитивную безопасность населения без внедрения искусственного интеллекта, считают аналитики. Наличие отечественных моделей и их внедрение, а также использование отечественных наборов данных — вопрос национальной безопасности, так как зарубежные акторы способны экспортировать ИИ, который будет подконтролен только им.

Еще один вывод исследования заключается в том, что государству необходимо решить важную инфраструктурную задачу: разработать процедуры тестирования и оценки моделей ИИ. Это позволит держать руку на пульсе развития технологий, отслеживать перспективных разработчиков и проекты.

Для создания отечественных моделей ИИ в России есть специалисты, но не хватает вычислительных мощностей, инфраструктуры и кооперации между компаниями и государством, отмечают исследователи. Ситуация осложняется тем, что в стране на данный момент недостаточно развито производство мощного вычислительного оборудования. Несмотря на это, в России есть очень качественные решения, особенно в области распознавания лиц и работы с информационными атаками.

Борьба с дезинформацией — одна из важнейших задач государства. Эффективно бороться с фейками без привлечения технологий на базе ИИ уже невозможно. Аналитики отмечают ряд трендов и ключевых выводов в этой области.

  1. Системы приближаются к проверке фактов в реальном времени и будут интегрированы в соцсети

В будущем они смогут анализировать речь и потоковое видео, проверять их, а при обнаружении ложных новостей — поднимать тревогу или оповещать пользователей о недостоверном контенте. Такие системы будут включать в себя комплекс работающих в симбиозе нейросетей и внедряться в соцсети.

  1. На данный момент полностью положиться на ИИ в проверке фактов нельзя, можно лишь автоматизировать часть процессов

По этой причине многие решения автоматизируют либо одну часть из процесса, либо концентрируются на выдаче оценки конкретному артефакту контента, чтобы затем поступить на финальную оценку либо эксперту, либо центральной нейросети комплекса. Такие системы позволяют адекватнее оценивать достоверность контента, так как учитывают больше факторов.

  1. Системы для фактчекинга находятся на раннем этапе развития и будут массово внедрены только через 3–5 лет

Даже техногиганты не могут полностью автоматизировать этот процесс и вместо этого используют системы для разметки уже известных и широко распространившихся недостоверных новостей. Интерес к автоматизации проверки фактов значительно поднялся во времена пандемии коронавируса, и с тех пор направление стало активно развиваться. Тем не менее, даже экспериментальные решения не покрывают все этапы процесса, не включают в себя все форматы контента и не всегда являются правильно обученными.

  1. Внедрение автоматизированной проверки фактов приведет к тому, что каждая новость будет размечена специальными тегами на крупных платформах

Государства смогут напрямую влиять на фактчекинг, сформировав систему тегов и отслеживая корректность разметки новостей техногигантами. Высока вероятность, что корпорации будут некорректно размечать новости, чтобы сформировать выгодную оптику в отношении инфоповодов.

 

Похожие записи