Инженеры NtechLab победили в международном конкурсе в области машинного зрения

Компания NtechLab, мировой лидер в точности и скорости распознавания лиц, силуэтов и действий на видео, сообщает о победе команды компании на международном соревновании в области машинного зрения Ice Vision. Об этом говорится в пресс-релизе, поступившем в редакцию «Ленты.ру».

Программные решения, оценивавшиеся в рамках конкурса, позволят беспилотным автомобилям эффективно и точно распознавать дорожную обстановку в условиях русской зимы. В финале конкурса приняли участие 26 команд из разных стран мира.

Свои разработки в области распознавания дорожной ситуации участники финала тестировали на уникальном «зимнем» датасете, который был разработан специалистами «Сколтеха» и содержит более 600 тысяч изображений, полученных при сложных погодных условиях, а также данные, позволяющие создавать в реальном времени 3D-карту пространства, окружающего автомобиль. Борьба за главный приз развернулась между разработчиками из России и специально прибывшими в Москву командами из США, Китая, Южной Кореи и Испании. Команда, представляющая компанию NtechLab, завоевала первое место с призовым фондом 1,6 миллиона рублей.

«В своей работе мы использовали сверточные нейронные сети. Считаем, что это было верным решением. Кстати, потом, когда мы уже отошли от компьютеров, мы обсуждали наше решение с командой, занявшей второе место, и оказалось, что они действовали примерно по тому же принципу. Они даже показали нам несколько фишек, которые могли бы еще улучшить наш финальный результат», — рассказали участники команды.

Развитие беспилотного транспорта — одна из наиболее актуальных задач, стоящих перед разработчиками систем на основе нейросетей во всем мире. Проведение хакатонов, направленных на поиск эффективных решений в области совершенствования компьютерного зрения для автономных транспортных средств, позволяет приблизиться к созданию беспилотных систем 5-го уровня, при внедрении которых не потребуется вмешательство человека в процесс управления автомобилем.

«NtechLab, зарекомендовавший себя в качестве лидера по точности и скорости распознавания лиц, постоянно работает над расширением спектра применения нейросетей. В 2017 году разработанные нашей командой алгоритмы начали распознавать эмоции людей, в 2018 году мы были среди мировых лидеров по распознаванию силуэтов людей, 2019 год принес лидерство по определению действий на видео. Технологическое первенство в распознавании дорожной обстановки открывает новые перспективы в обогащении аналитики умных и безопасных городов уникальными данными», — прокомментировал основатель и глава лаборатории нейронных сетей NtechLab Артем Кухаренко.

Конкурс Ice Vision — часть серии технологических конкурсов Up Great, проводимых в целях реализации Национальной технологической инициативы. Соорганизатором конкурса выступил один из ведущих технических российских университетов НИТУ «МИСиС», стратегическим партнером — научно-производственное объединение «СтарЛайн», технологическим партнером — «Сколтех». Мероприятие проходило в формате 48-часового хакатона на площадках «Дома-коммуны» НИТУ «МИСиС» и Сколковского института науки и технологий («Сколтех»).

NtechLab — мировой лидер в точности и скорости распознавания лиц, силуэтов и действий на видео. Алгоритмы NtechLab неоднократно доказывали свое техническое превосходство в рамках репрезентативных международных конкурсов. В 2017 году разработка NtechLab заняла первое место по итогам соревнования американского Агентства передовых исследований в сфере разведки в категориях «самый точный» и «самый быстрый» алгоритм. В 2018 году NtechLab вошла в тройку победителей конкурса WIDER Pedestrian Challenge по детектированию пешеходов на основе их силуэтов. Продукты компании востребованы в сферах общественной и корпоративной безопасности, розничной торговли, финансового сектора, индустриях развлечений и гостеприимства. Алгоритм успешно пилотируется в 10 крупных городах России и стран СНГ, а также муниципальных системах видеонаблюдения городов Индии, Южной Америки, Ближнего Востока и Юго-Восточной Азии.

Источник