ЖУРНАЛ СТА №4/2022

что существенно повышает эффектив- ность решения задачи. Обучение нейрон- ных сетей упрощает выбор ключевых признаков, их весовых коэффициентов и связей между ними. Чаще всего в таких случаях приме- няют многослойные нейронные сети, которые состоят из последовательно соединённых слоев, нейрон каждого из которых своими входами связан со все- ми нейронами предыдущего слоя, а вы- ходами – последующего. Распознавание общего изображения, в частности сотрудника, проходящего авторизацию в интеллектуальном турникете с помощью биометрии, про- водится с помощью многослойной ней- ронной сети, архитектура которой представлена на рис. 2. Нейрон с мак- симальной активностью (цифра 1) ука- зывает на принадлежность к распознан- ному классу. Нейронная сеть с одним решающим слоем способна формиро- вать линейные разделяющие поверхно- сти, что значительно сужает круг ре- шаемых задач, в частности, такая сеть не сможет решить задачу типа «исклю- чающее или». НС с нелинейной функ- цией активации и двумя решающими слоями позволяет формировать любые выпуклые области в пространстве ре- шений, а с тремя решающими слоями – области любой сложности, в том числе и невыпуклой. Обучение многослойных нейронных сетей осуществляется с по- мощью алгоритма обратного распро- странения ошибки. Такой алгоритм является разновидностью градиентно- го спуска в пространстве весов и обес- печивает минимизацию суммарной ошибки сети: где у j – выходное значение j -го нейрона сети, t j – эталонное значение выходов сети. Скорректированные значения весов передаются от входов к выходам. Алго- ритм обратного распространения яв- ляется NP-трудным, поэтому время об- учения сети увеличивается экспонен- циально с ростом размерности данных. Поскольку в данном случае в интел- лектуальном турникете эталонные значения распознавания посетителей известны, происходит обучение сети реконструкции поданного на вход изоб- ражения, на скрытых нейронах сети формируется сжатое представление та- кого изображения, что может быть от- несено к классу методов самообучения. Перед началом обучения многослой- ной нейросети сначала производится случайный выбор весовых коэффици- ентов. Поэтому допускается примене- ние двух разных обученных нейросетей, этот метод часто применяется при рас- познавании лица по изображению: создаётся набор (коллектив) сетей, об- ученных решать одну и ту же задачу различными способами. Обобщённое, полученное таким методом, решение точнее и надёжнее, чем решение един- ственной нейронной сети. В случаях, когда интеллектуальному турникету вслед за ИК-датчиками не- обходимо распознать сначала контур человека, чтобы убедиться, что в створе находится один посетитель, а затем про- вести распознавание его по лицу, чаще всего используют свёрточные нейронные сети. В классической многослойной ней- ронной сети межслойные нейронные со- единения являются полносвязанными, изображение представлено в виде n -мер- ного вектора, не учитывающего ни дву- мерной локальной организации пиксе- лов, ни возможностей деформации обра- за. Архитектура свёрточной нейросети представлена на рис. 3. В свёрточной нейросети используются локальные ре- цепторные поля (обеспечивают локаль- нуюдвумерную связность нейронов), об- щие весовые коэффициенты (обеспечи- вают детектирование отдельных черт лица, находящихся в любом фрагменте изображения) и иерархическая организа- ция с пространственными подвыборка- ми (Spatial subsampling). Свёрточная нейросеть обеспечивает частичную устойчивость к изменениям масштаба, смещениям, поворотам, сме- не ракурса и прочим искажениям захва- та изображения камерами интеллекту- ального турникета. Слои подразделяются на два типа: свёрточные (Convolutional) и подвыбо- рочные (Subsampling), чередующиеся друг с другом. В каждом слое имеется набор из нескольких плоскостей, при- чём нейроны одной плоскости имеют одинаковые весовые коэффициенты, поступающие ко всем локальным участ- кам предыдущего слоя (как в зритель- ной коре человека), изображение пре- дыдущего слоя «сканируется» неболь- шим окном и «взвешивается» набором весовых коэффициентов, а результат отображается на соответствующий ней- рон текущего слоя. Таким образом, плоскости называются картами характе- ристик (feature maps), каждая из них вы- деляет «свои» участки изображения в П РОЕ К Т Ы СТА 4/2022 52 www.cta.ru Входное изображение NxM Входной (распределительный псевдослой) Скрытые (промежуточные слои) Выходной слой 1 2 3 1 2 3 1 2 3 1 2 3 X 1 X 1 X 1 X 1 X NxM NxM i j y k q p Рис. 3. Архитектура многослойной сверточной нейросети Рис. 2. Архитектура многослойной нейронной сети для распознавания изображений Усреднение Усреднение Полносвязные слои Свёртка Свёртка 0,94 0,03 0,04 0,01 Вывод 40@1 × 1 Карта характеристик 25@5 × 6 Карта характеристик 25@9 × 11 Карта характеристик 20@11 × 13 Входное изображение 20@21 × 26 Входное изображение 23 × 28 ,

RkJQdWJsaXNoZXIy MTQ4NjUy