Секция посвящена проблемам искусственного интеллекта
Разработан программный комплекс "Танковая Война". Приводятся примеры его применения. Получены новые результаты - способ ориентации и движения танка, на основании данных, полученных с помощью волнового алгоритма. Система обнаружения и поражения противника.
В данной работе рассказывается о решении задачи построения системы автоматического распознавания документов в случае, когда передача большого количества документов данного типа для разметки затруднена по юридическим обстоятельствам. Рассмотрен процесс генерации синтетических печатных и частично-рукописных документов, обучения на этих документах, а также представлен анализ полученных результатов. На некоторых типах документов получено качество, заметно превосходящее известные открытые решения.
В медицине актуальна проблема недостаточной обеспеченности медицинских учреждений кадрами. На медицинский персонал ложится нагрузка, связанная с приемом, назначением лечения и ведением медицинской документации, что влияет на качество выполняемой ими работы. Для решения этой проблемы предлагаются возможности использования ИИ в медицине. Использование таких технологий, как компьютерное зрение, глубокое обучение позволит реализовать такие концепции, как персонализированная и предиктивная медицина.
Для эффективной разработки месторождений литологи ежегодно анализируют десятки километров керна, затрачивая на это огромное количество времени. В целях автоматизации процесса описания керна разработан алгоритм для автоматического определения типов горных пород с помощью сверточных нейронных сетей.
В работе рассматриваются алгоритмы машинного обучения, подходящие для анализа данных киберспортивных матчей и предсказания победителя в режиме реального времени на примере популярной стратегии Dota 2.
Мы дообучили языковую модель GPT2-medium генерировать изображения из датасета CIFAR10, а так же генерировать изображения по короткому текстовому описанию. Причем данных классов не было в обучающей выборке
В работе представлен разработанный программный компонент с элементами искусственного интеллекта, позволяющий определять наличие и тип растворенного нефтепродукта в пробе морской воды на основе спетров индуцированной флуоресценции.
Популяционное моделирование базируется на динамике изменения популяции, где адаптация происходит за счет естественных процессов.
Предыдущие исследования в области популяционных алгоритмов отмечают, что стабильные экосистемы формируются в процессе эволюции в среде, где индивиды вынуждены конкурировать за ограничение ресурсов. В данной работе уделено внимание исследованию скорости сходимости популяционных методов оптимизации с помощью введения локальной емкости среды.
Многие подходы к решению задачи локализации используют трехмерную карту для повышения точности. Проблемой таких карт является изменчивость окружающего мира и как результат - на карте могут быть лишние объекты или, наоборот, не хватать чего-то. Использование семантически размеченных карт позволяет снизить влияние таких неточностей и повысить качество локализации. В данной работе рассматриваются методы построения трехмерных семантических карт и способы локализации на них.
В работе описаны эксперименты по прунингу голов внимания неавторегрессионных Трансформеров. В одном из экспериментов удалось отключить 57% голов внимания при потерях в качестве 1.26 BLEU.
Исследование окружающего пространства является неотъемлемой частью приобретения нового знания и успешного функционирования в среде. Одной из ключевых особенностей процесса исследования является необходимость опираться на внутренний сигнал, определяющий приоритет выбираемых действий. В настоящей работе предложен способ вычисления такого сигнала для агента в клеточном мире.
В данной работе исследовано влияние канала глубины в быстрых нейросетевых моделях для улучшения качества сегментации объектов на изображениях. В качестве базового алгоритма была предложена YOLACT-EDGE, первая конкурентноспособная модель, работающая на переферийных устройствах в режиме реального времени. Произведена сравнительная характеристика современных методов сегментации экземпляров. Проведен анализ влияния дополнительных данных на результирующее качество работы сети.
Domain adaptation — задача обучения модели таким образом, чтобы она давала точные предсказания не только на данных из обучающего распределения, но и на семантически схожих данных.
В этой работе я использую метрику Васерштейна для оценки качества работы и подбора наилучших аугментаций для решения задачи domain adaptation в условиях отсутствия разметки на целевом датасете.
В данной работе рассматривается задача классификации нарушения видимости монокулярной камеры по ее изображению. В такой постановке существует очень мало наборов данных. Они разнородные и относятся больше к определению погодных условий. Поэтому был разработан датасет на основе имеющихся наборов данных, который включает в себя 7 специальных категорий. На нем проведены первые эксперименты с показателями точности и быстродействия у различных нейронных сетей.
В данной работе представлены результаты экспериментов для биологически вдохновлённой архитектуры агента HIMA. Исследовано влияние абстрактных действий на поведение агента в клеточной среде. Показана эффективность использования автоматически сформированных абстрактных действий в задачах с меняющимся положением цели.
В работе проанализированы различные подходы к задаче распознавания движений человека по видеоданным. Задача рассматривается в двух постановках: обучения с учителем и обучения без подготовки (zero-shot learning). Для рассматриваемых подходов представлен анализ их свойств и указана их общность с подходами к обработке естественного языка. Отдельное внимание уделено вопросам использования дополнительных модальностей и работе в условиях недостатка размеченных данных.
Предлагается декомпозиция латентной переменной для моделей мира в обучении с подкреплением. Декомпозиция инспирирована объектно-центрическим подходом к обучению с подкреплением. Метод протестирован на бенчмарке многозадачного обучения с подкреплением Metaworld.
To synthesize a compound, one should identify reactants and conditions of reactions. The classical approach to this problem is to use manually curated templates (rules) also known as synthons. The use of Natural Language Processing (NLP) allows to learn such rules from the data directly without a need to derive templates. I will present results based on Augmented Transformer, which use data augmentation to eliminate the effect of data memorization and improve performance of the neural networks.
Современные когнитивные технологии становятся все более разнообразными и сложными. Это требует разработки адекватных моделей их формализации. Проблемы построения, происхождения и применимости этих моделей формализации когнитивных технологий к информационной практике на примере универсалий обсуждаются в данной статье.
Предлагается метод оптимизации параметров сигма-точечного фильтра Калмана для комплексирвония навигационных данных. Также разработан нейросетевой метод предсказания ковариаций измерений, которые необходимы для работы фильтра Калмана.
Система основанная на глубоких сверточных нейронных сетях способна распознавать патологии на МРТ исследованиях
В данной работе предложен новый механизм обучения агента, использующий опыт уже решенных агентом задач при получении им новой. Также приведены результаты экспериментов с применением предложенного подхода в среде Metaworld.
Предлагается подход к обучению моделей глубоких нейронных сетей для распознавания произвольных динамических объектах по данным монокулярной камеры, основанный на одновременном взаимодополняющем обучении без учителя Competitive Collaboration с использованием дополнительной семантической информации, исследуется влияние использования данной информации для устранения выбросов и шумов.
Работа посвящена разработке нового алгоритма классификации спутниковых снимков. В работе изучены методы увеличения параметров снимка, изучены и модифицированы методы увеличения пространства параметров посредством кластеризации. Выбран наиболее подходящий метод классификации спутниковых снимков. Предложен новый алгоритм классификации спутниковых снимков (RGB+GLCM →bagging + VFDT → фильтрация). Подготовлен Dataset для тестирования алгоритма и достигнута точность 84,6%.
This paper describes a model based on T5-transformer vanilla to cope with long document translation. We introduce hierarchical attention over document chunks to alleviate attention limits of processing long sequencws. Experiments show competitive bleu score with T5 Transformer as a baseline on context agnostic datasets and promising translation of sentences that are prefixed with context.