Электронная библиотека диссертаций и авторефератов России
dslib.net
Библиотека диссертаций
Навигация
Каталог диссертаций России
Англоязычные диссертации
Диссертации бесплатно
Предстоящие защиты
Рецензии на автореферат
Отчисления авторам
Мой кабинет
Заказы: забрать, оплатить
Мой личный счет
Мой профиль
Мой авторский профиль
Подписки на рассылки



расширенный поиск

Методы, алгоритмы и программное обеспечение интеграции биометрических информационных технологий Ушмаев Олег Станиславович

Методы, алгоритмы и программное обеспечение интеграции биометрических информационных технологий
<
Методы, алгоритмы и программное обеспечение интеграции биометрических информационных технологий Методы, алгоритмы и программное обеспечение интеграции биометрических информационных технологий Методы, алгоритмы и программное обеспечение интеграции биометрических информационных технологий Методы, алгоритмы и программное обеспечение интеграции биометрических информационных технологий Методы, алгоритмы и программное обеспечение интеграции биометрических информационных технологий Методы, алгоритмы и программное обеспечение интеграции биометрических информационных технологий Методы, алгоритмы и программное обеспечение интеграции биометрических информационных технологий Методы, алгоритмы и программное обеспечение интеграции биометрических информационных технологий Методы, алгоритмы и программное обеспечение интеграции биометрических информационных технологий
>

Диссертация - 480 руб., доставка 10 минут, круглосуточно, без выходных и праздников

Автореферат - бесплатно, доставка 10 минут, круглосуточно, без выходных и праздников

Ушмаев Олег Станиславович. Методы, алгоритмы и программное обеспечение интеграции биометрических информационных технологий : Дис. ... канд. техн. наук : 05.13.17 : Москва, 2004 140 c. РГБ ОД, 61:04-5/2644

Содержание к диссертации

Введение

1. Методологический анализ основных подходов и методов биометрической идентификации 8

1.1. Основные характеристики биометрических систем 8

1.2. Методы биометрической идентификации 19

1.3. Основные подходы к интеграции различных технологий 27

1.4. Пути совершенствования методов синтеза интегрированных биометрических систем. Постановка проблемы 33

2. Биометрическая идентификация по отпечатку пальца 35

2.1. Классификация алгоритмов распознавания по отпечатку пальца 35

2.2. Факторы, снижающие эффективность распознавания по отпечаткам пальцев 38

2.3. Учет и моделирование деформаций отпечатков 39

2.4. Анализ эффективности автоматического учета деформаций 58

3. Синтез комбинированных мер сходства 62

3.1. Статистические аспекты интеграции биометрических технологий 62

3.2. Оптимальная интеграция независимых биометрических технологий 66

3.3. Условно оптимальные интеграция биометрических технологий 75

4. Сравнительный статистический анализ комбинированных алгоритмов биометрической идентификации 85

4.1. Интеграция независимых биометрических технологий 85

4.2. Интеграция зависимых биометрических технологий 93

4.3. Интеграция на уровне алгоритмов 100

5. Сравнительный анализ реализаций основных алгоритмов предварительной обработки биометрической информации на различных архитектурах вычислительных средств 104

5.1. Вычислительные проблемы реализации алгоритмов биометрической идентификации 104

5.2. Математическая модель линейной фильтрации изображений 106

5.3. Сравнительный анализ реализации алгоритмов фильтрации изображений на различных архитектурах 110

Заключение 123

Список литературы 124

Приложение 134

Введение к работе

Актуальность работы. В настоящее время приобретают широкое распространение биометрические (основанные на физиологических и поведенческих характеристиках человека, например, отпечатке пальца или радужной оболочке глаза) технологии автоматической аутентификации и идентификации личности. Это обусловлено множеством причин. Во-первых, из-за быстрого развития сектора электронной коммерции значительно возросли требования к защищенности информационных ресурсов. Во-вторых, быстрый рост производительности современных вычислительных средств сделал возможным внедрение биометрических технологий в системы реального времени. В-третьих, в связи с возросшей в последние годы угрозой терроризма увеличился интерес к средствам биометрической идентификации со стороны государства.

Как показывают многочисленные результаты тестирований биометрических систем, на современном уровне развития технологий ни одна из существующих систем, использующая одно биометрическое измерение (например, отпечаток пальца или радужную оболочку глаза), не может в полной мере обеспечить требуемых уровней надежности и ошибок 1-го и 2-го рода. В такой ситуации особенно актуальной становится проблема интеграции биометрических систем.

С алгоритмической точки зрения интеграция является сложной прикладной математической задачей. Показатели работы биометрических систем, такие как ошибки распознавания, в основном носят статистический характер, поэтому основной проблемой синтеза комбинированных систем является достижение требуемых статистических критериев качества. Прямое применение соответствующих методов математической статистики затруднено спецификой биометрических систем и малыми размерами обучающих выборок.

Также в настоящее время является актуальной проблема создания средств автоматической настройки комбинированных биометрических систем. Для этого требуется не только развитие математических методов, но и стандартизация выходных данных биометрических систем.

Вместе с тем, несмотря на потребности практики, в настоящее время не только отсутствуют алгоритмы автоматической интеграции различных биометрических систем, но и теоретические наработки в данной области не нашли должного распространения в научно-технической литературе. Существующие разработки в данной области, как правило, представляют

РОС НАЦИОНАЛЬНА* БИБЛИОТЕКА

S*3f2flfA

собой отдельные примеры интеграции систем в рамках рекомендаций международных стандартов -70-х годов, когда перспективы интеграции биометрических технологий серьезно не рассматривались.

Целью исследования является разработка методов, алгоритмов и программного обеспечения оптимальной интеграции биометрических технологий для систем автоматической аутентификации и идентификации, в частности для автоматических дактилоскопических идентификационных систем (ДДИС). Для достижения поставленной цели необходимо решение следующих задач:

1. обобщить опыт разработки методов и алгоритмов синтеза комбинированных биометрических систем и выявить направления их совершенствования;

  1. разработать прикладные статистические методы оценки качества комбинированных биометрических систем;

  2. разработать алгоритмы эффективной интеграции биометрических систем, а также специализированные алгоритмы с учетом специфики ДДИС;

  3. разработать статистические критерии верификации результатов автоматической интеграции биометрических систем;

  4. экспериментально проверить разработанное базовое алгоритмическое и программное обеспечение автоматической настройки комбинированных биометрических систем на ПЭВМ и высокопроизводительных вычислительных средствах.

Методы исследования. В работе использованы современные методы теории вероятностей и математической статистики, обработки изображений и теории оптимизации, методы программирования и моделирования на ЭВМ, а также рекомендации действующих и разрабатываемых отечественных и международных стандартов по биометрическим технологиям.

Научная новизна и результаты, выносимые на защиту. В работе лично диссертантом получены следующие основные результаты:

  1. новые методы и алгоритмы интеграции биометрических информационных технологий;

  2. новые алгоритмы распознавания по отпечаткам пальцев, компенсирующие влияние упругих деформаций пальца;

  3. базовое программное обеспечение интеграции биометрических технологий.

Теоретическая значимость состоит в развитии методов интеграции биометрических систем, оптимизирующих уровни ошибок 1-го и 2-го рода. Практическая ценность исследования заключается в том, что разработанные алгоритмы и программное обеспечение могут использоваться для построения комбинированных биометрических технологий.

Реализация результатов работы. Результаты диссертации реализованы в Проектах РФФИ (№01-01-00758, №04-01-00270), Государственном контракте ОИТВС 01/097-098/210503-180, а также в продуктах компании «Biolink Technologies».

Апробация работы. Материалы диссертации излагались и обсуждались на семинаре по программе ОИТВС РАН «Научные основы автоматизации и управления» и на следующих научно-технических конференциях: «Методы и средства обработки информации» (Москва, 2003), «Распознавание 2003» (Курск, 2003), «Workshop on Multimodal User Authentication» (Santa Barbara, 2003), «Идентификация систем и проблемы управления SICPRO'04» (Москва, 2004), «SPIE Symposium on Security & Defense» (Orlando, 2004), «European Conference on Computer Vision 2004» (Prague, 2004).

Публикации. Материалы диссертации отражены в отчетах ИПИ РАН, по теме диссертации опубликовано 5 печатных работ.

Структура и объем работы. Диссертация состоит из введения, пяти разделов, заключения и приложения. Содержание работы изложено на 130 страницах машинописного текста, иллюстрированного 52 рисунками и 26 таблицами. Список использованных источников составляет 125 наименований.

Пути совершенствования методов синтеза интегрированных биометрических систем. Постановка проблемы

Проанализировав существующий опыт создания биометрических систем можно выделить основные способы улучшения качества распознавания биометрической системы [3]: 1. Улучшение качества используемых алгоритмов. 2. Подавление влияния факторов, ухудшающих распознавания. 3. Синтез комбинированных алгоритмов распознавания. 4. Использование нескольких модальностей. Фактически пункты 2-4 отражают различные уровни интеграции. Подавление факторов, ухудшающих распознавания, осуществляется путем интеграции на этапе регистрации специальных компенсирующих алгоритмов. Такие алгоритмы могут использовать как результаты биометрических измерений, сделанных разными типами сканирующих устройств, так и результаты моделирования биометрического измерения. Распространенным примером такой интеграции является использование для распознавания трехмерной модели лица, которая может строится, либо на базе нескольких снимков в разном частотном диапазоне, либо на базе математических моделей [64]..

Пункты 3 и 4 представляют собой интеграцию биометрических систем на уровне алгоритмов и модальностей соответственно. Основное внимание в работе уделено методам и алгоритмам биометрической идентификации по отпечатку пальца. Такой интерес обусловлен рядом причин. Во-первых, такие системы зачастую, используются . в качестве базовой технологии при создании комбинированных систем. Во 33 вторых, доступность тестовых массивов позволяет экспериментально проверить разработанные методы интеграции. Раздел 2 посвящен улучшению показателей качества алгоритмов распознавания по отпечаткам пальцев путем компенсации упругих деформаций отпечатков пальцев. Приведены оценки эффективности нескольких вариантов интеграции методов учета деформаций в алгоритмы распознавания [127,130]. В разделе 3 разработаны основные методы синтеза комбинированных численных мер сходства для результатов нескольких сравнений биометрической информации. Полученные меры сходства пригодны для интеграции как на уровне независимых биометрических измерений, так и для интеграции сильно зависимых алгоритмов сравнения одного и того же биометрического измерения. Также в разделе 3 изучена чувствительность полученных мер сходства к обучению на малых выборках [126,129]. В разделе 4 приведены экспериментальные результаты синтеза комбинированных алгоритмов биометрической идентификации. В подразделе 4.1 даны теоретические оценки качества многофакторных биометрических систем. В подразделе 4.2 полученные в разделе 3 условно оптимальные комбинированные меры сходства используются для синтеза алгоритма сравнения дактилокарт. В подразделе 4.3 приведены показатели качества комбинированного алгоритма распознавания по отпечаткам пальцев, сочетающего в себе преимущества разных классов алгоритмов распознавания по отпечатку пальца [129]. В разделе 5 содержатся результаты экспериментальной реализации трудоемких алгоритмов, изложенных в разделе 2, на ПЭВМ и на макете высокопроизводител ьной машины потока данных [124,125,128]. Основные результаты диссертации опубликованы в [ 124-13 0]. о 2. Биометрическая идентификация по отпечатку пальца 2.1. Классификация алгоритмов распознавания по отпечатку пальца Все базовые алгоритмы сравнения отпечатков пальцев можно разделить на две основные группы [7,11,29,60]: 1. Классические алгоритмы. 2. Корреляционные алгоритмы. Классические алгоритмы предполагают сравнение взаимного расположения особых точек (минюций) отпечатков пальцев, полей направлений папиллярных линий и прочих топологических характеристик отпечатков. Считается, что взаимное расположение минюций, хотя и не полностью описывает отпечаток, является уникальной характеристикой человека и не повторяется [77]. Такой подход к сравнению отпечатков позволяет сжимать полученный со сканера отпечаток в шаблон, по которому невозможно восстановить исходный отпечаток. Примеры классических алгоритмов распознавания приведены в [60]. Некоторые алгоритмы сравнения графов могут быть адоптированы к задачам распознавания по отпечаткам пальцев [97]. Корреляционные алгоритмы сравнивают отпечатки как изображения. Существуют разные подходы к разработке корреляционных алгоритмов. Однако большинство из них требует хранения в базе биометрических записей части изображения, что из соображений безопасности делает применение таких алгоритмов в некоторых системах, либо нежелательными, либо невозможным (злоумышленник может воспользоваться изображением отпечатка для создания муляжа отпечатка для последующего использования его в преступных целях). Типовая схема корреляционного алгоритма предполагает вычисление прямого наложения участков изображения. Однако прямая корреляция всего изображения с целью выделить совпадающие участки является слишком трудоемкой процедурой, особенно, если дополнительно осуществлять перебор по поворотам, поэтому не используется в реальных системах. В этой связи в работе предлагается усовершенствованная схема более быстрого корреляционного алгоритма. На этапе создания шаблона регистрации выполняются следующие процедуры: 1. Бинаризация изображения. 2. Выделение на изображении участков высокой кривизны (такие участки как элементы текстуры несут наибольшую информацию). На рисунке 2.1 приведен пример выделенной информативной зоны изображения. 3. Вычисление на участках высокой кривизны локальной спектральной картины, инвариантной к сдвигам. А именно выделяются доминирующие частоты энергетического спектра Фурье. Получаемый шаблон регистрации содержит бинарное изображение и набор сжатых энергетических спектров вокруг TS точек высокой кривизны.

Факторы, снижающие эффективность распознавания по отпечаткам пальцев

В классической схеме функционирования биометрической системы в режиме верификации на выходе оператор (в случае крупномасштабных автоматических систем идентификации) или приложение получает число (чем больше число, тем выше мера сходства предъявляемой биометрической информации). В случае комбинированной системы результат работы можно рассматривать как точку в многомерном признаковом пространстве, где каждая ось соответствует отдельному алгоритму или технологии. Как было отмечено выше, удобными для изучения показателей качества работы биометрических системы являются статистические методы. В таком случае довольно полной характеристикой является совместные распределения результатов в признаковом пространстве.

Однако в таком случае возникает существенная проблема построения оптимального численного критерия сходства.

В случае одного теста единственным управляющим параметром является порог, которым разделяются две области: принятия или отвержение гипотезы об идентичности сравниваемых биометрических измерениях. В многомерном случае две области разделяются гиперповерхностями, следовательно, множество всех возможных критериев не параметризуется элементами конечномерного пространства. Выбор разделяющих гиперповерхностей при построении решающего правила, оказывает существенное влияние на показатели работы интегрированной системы.

Теоретически при известных совместных распределениях результатов различных биометрических тестов, оптимальный численный интегральный критерий может быть построен на основании результатов теоремы Неймана-Пирсона [89]. А именно оптимальными (обеспечивающие минимальное значение ошибки 1-го рода при фиксированном уровне ошибки 2-го рода) разделяющими поверхностями являются гиперповерхности, на которых отношение плотности распределения вероятностей «на своих» к плотности распределения вероятностей «на чужих» постоянно.

Однако на практике прямое применение теоремы Неймана-Пирсона сопряжено со значительными трудностями. А именно: 1) Результат работы автоматической биометрической системы является дискретным. Следовательно, предварительно может оказаться необходимым приблизить дискретное распределение непрерывным. 2) Получаемые операционные кривые (ROC) и интегральные показатели работы (FAR, FRR) не являются плотностями меры сходства «на своих» и «на чужих», а могут рассматриваться лишь как статистические оценки соответствующих величин. При тестировании на небольших базах доверительный интервал для значений плотности оказывается довольно широким, что делает применение теоремы Неймана-Пирсона практически нецелесообразным. Для изучения свойств комбинированных мер сходства и статистических критериев качества работы комбинированных систем введем следующие обозначения: s = (sl,...,sn) - элемент признакового пространства, вектор результатов работы интегрированной БТ; fLP{sk) " плотность распределение k-го признака «на чужих» (impostor); fgen(sk)" плотность распределение k-го признака «на своих» (genuine); fimP{s) " совместная плотность распределение вероятности «на чужих»; fgen{s) " совместная плотность распределение вероятности «на своих»; В общем случае функции fimp и f удобно считать обобщенными функциями. Произвольный численный многомерный критерий может быть рассмотрен как параметризованное семейство {DA}, Л є Л, областей признакового пространства. А именно при фиксированном значении Л, если ssDA, тогда субъект принимается. Соответственно, интегральные характеристики FAR и FRR могут быть определены как В случае, если требования к ошибкам первого и второго рода известны, то можно ограничится выбором одного значения Л, при котором данные требования удовлетворяются. Более распространенной является ситуация, при которой требуется параметризация семейства {Dx} ОДНИМ действительным числом (т.е. ЛеК), обычно интерпретируемым как «жесткость» критерия. Чем «жестче» критерий, тем ниже ошибка 2-го рода, и как следствие выше ошибка 1-го рода. В таком случае естественным является требование: при Л /л. Тогда функции FAR(X) И FRR(X) являются монотонными функциями параметра. При этом без потери информативности можно нормализовать параметр следующим образом: при неоднозначном выборе Л (т.е. когда для разных Л ошибка 2-го рода одинакова) в семействе подмножеств достаточно оставить подмножество, обеспечивающее минимальное значение ошибки 1-го рода. В приведенных обозначениях теорема Неймана-Пирсона утверждает, что для статистически оптимального интегрального критерия выполняется следующее требование [89]:

Оптимальная интеграция независимых биометрических технологий

Анализ алгоритмов регистрации и сравнения биометрических измерений показывает, что основная вычислительная нагрузка приходится на операции предварительной обработки полученных со сканеров изображений. Анализ распространенных процедур фильтрации показывает, что основными операциями являются умножение матриц, обращение матриц, сложение матриц, умножение вектора на матрицу и скалярное умножение векторов [95,98-104]. Все перечисленные операции хорошо поддаются распараллеливанию. Поэтому решение широкого класса задач фильтрации может быть существенно ускорено за счет параллельных вычислений [105,106].

При оперативной дискретизации и обработке изображений возникают столь большие вычислительные трудности, что в настоящее время довольно распространены различные аналоговые системы обработки и анализа изображений [104] (например, фазовый фильтр, оптический коррелятор).

Однако при интеллектуальном подходе к анализу изображения выясняется, что зачастую оптические системы оказываются неудобными из-за того, что природа объекта несет информацию, которая не описывается или не может быть смоделировать оптическими средствами. Такой информацией является форма объекта или незначительные локальные изменения, отличные от линейного преобразования, которые имеют большое значение, например, деформация отпечатка пальца. Второй проблемой является отсутствие гибкости и оперативности настройки систем. Многие оптические системы распространяются в том виде, в котором они были спроектированы, что зачастую делает невозможным их адаптацию даже при незначительном изменении условий эксплуатации или поставленных задач.

В настоящий момент видится перспективным замена существующих аналоговых оптических методов обработки изображений на цифровые. Однако реализация цифровых аналогов оптических фильтров зачастую сопряжена с недостаточной производительностью современных компьютеров. Даже при росте производительности вычислительных средств возникают задачи, требующие создание узкоспециализированных процессоров. Основой современных аналоговых оптических систем обработки изображений являются элементы, выполняющие двумерное преобразование Фурье [104]. Данная операция является весьма требовательной к производительности системы. Даже при быстрой реализации алгоритма преобразования Фурье во многих случаях производительность современных компьютеров оказывается недостаточной при высоких требованиях к разрешению спектральной картины. Одним из способов ускорить вычисление спектральной картины является распараллеливание вычислений. Во многих случаях с точки зрения оперативности обработки информации может оказаться достаточным распределение вычислений между несколькими персональными компьютерами, объединенными в сеть или осуществляющими взаимодействие на базе GRID-технологии [107]. Однако в таком случае можно столкнуться с проблемой неполной загрузки вычислительной мощности и с потерями производительности на задержках при передаче и обмене информации. Более перспективным для крупномасштабных систем является использование современных архитектур, более адаптированных к задачам с массовым параллелизмом, чем персональные компьютеры.

Особенно эффективной архитектурой для такого распараллеливания являются вычислительные средства, работающие по принципу потока данных (Dataflow). Такие архитектуры позволяют максимально эффективно бесконфликтно реализовать существующий параллелизм процесса. При этом распараллеливание вычислений осуществляется автоматически во. время выполнения программы, а не на этапе программирования. Машины потока данных могут быть построены на базе ассоциативной памяти выборки данных по ключу [106,108-112]. При этом такие машины имеют большую, по сравнению с традиционными процессорами, производительность на векторных и матричных операциях [120-122].

До недавнего времени реализация архитектур с высокой степенью . параллелизма на базе ассоциативной памяти было сопряжено с значительными инженерными трудностями. Новые подходы к созданию быстродействующей ассоциативной памяти [108] позволяют создать универсальные высокопроизводительные вычислительные средства, подходящие для решения широкого круга задач фильтрации и идентификации.

В подразделе 5.2 рассмотрена общая схема фильтрации изображений на базе унитарных преобразований. Оценки эффективности реализаций процедур фильтрации изображений приведены в подразделе 5.3.

Большинство процедур предварительной обработки изображений, такие как выделение контура, фильтрация, улучшение изображения используют унитарное преобразование (например, преобразование Фурье) для вьщеления и последующей обработки характерных признаков изображения [98,99,113-115]. В частности нулевая компонента спектра Фурье является средней яркостью изображения, а в высоких частотах значительная часть энергии приходится на шумы. В общем виде результат унитарного преобразования вычисляется следующим образом [99]:

Математическая модель линейной фильтрации изображений

В целом среди всех рассмотренных процессоров наибольшей производительностью, нормированной на 1GHz тактовой частоты, отличается Pentium IV, но здесь следует учитывать, что данный процессор принципиально отличается от остальных процессоров Intel тем, что теоретически может выполнять 2 операции с плавающей запятой за один такт. Также данный процессор отличается очень неустойчивой средней производительностью, существенно зависящей от размера матрицы. Этот эффект видимо обусловлен новизной процессора и, как следствие, неоптимальной компиляцией. Но даже на пиках производительности (на матрицах размера 40) эффективная загрузка процессора далека от пиковой производительности (23% на умножении, 12% на обращении). В целом приведенные результаты говорят о средней эффективности процессоров Intel на задачах фильтрации.

Результаты тестирования работы макета машины потока данных на операциях линейной алгебры свидетельствуют не только об очень хорошем распараллеливании (при большой размерности ИУ загружены на 90 и более процентов), но и об эффективности использования ресурсов исполнительных устройств. На умножении и обращении матриц такой способ организации вычислений оказывается в 1,5 — 2 раза эффективней по сравнению с традиционным процессором линейки х86.

Рассмотрим особенности программной реализации и сложность вычислений. Анализ алгоритма фильтрации показывает, что в общем случае приходится выполнять умножение комплексных матриц. Однако, с практической точки зрения удобнее по отдельности вычислять действительную и мнимую части результата унитарного преобразования. Таким образом, существенная по числу операций часть рассмотренной процедуры фильтрации сводится к операциям умножения матриц (для адаптивных процедур, таких как преобразование Карунена-Лоэва приходится также вычислять обратные матрицы);

Для определения эффективности современных процессоров для данного фильтра использовалась процедура HighPassFilterFT, приведенной в конце раздела. Для теста, как и для процедуры ФКБ, использовались процессоры Intel Pentium II 450 Mhz (о/с MS Windows 2000, компилятор Borland) , Intel Celeron 1.1 Ghz (o/c Linux 2.40.20, компилятор gcc v. 3.2.2) , . Intel Pentium IV 2.8 Ghz (o/c Linux 2.40.20, компилятор gcc v. 3.2.2). В таблицах 4-6 приведены скорость выполнения процедуры фильтрации верхних частот в зависимости от размера изображения. Результат работы процедуры для коэффициентов усиления фильтра, равным изображен на рисунке 5.5. Таблица 5.12. Полученные результаты говорят о эффективности реализации процедуры фильтрации, сравнимой с средней эффективностью процессор Intel на операциях умножения матрицы. Небольшое снижение эффективности связано с более интенсивной работой с памятью. Pentium IV имеет заметно более высокую производительность на небольших изображениях, что видимо обусловлено оптимальным размером кэшированных данных и следовательно оптимальное взаимодействие с памятью, однако уже на средних его производительность существенно падает до уровня, сравнимого с остальными процессорами Intel.

В целом цифры таблиц 5.12-5.14 говорят о средней эффективности процессоров Intel при выполнении приведенной процедуры фильтрации.

Для определения эффективности реализации на машине потока данных проводились тесты на программной модели компьютера с ассоциативной памятью. В качестве изучаемых конфигураций, как и при изучении распараллеливания ФКБ, были взяты модели, состоящие из одного исполнительного устройства (ИУ) и одного модуля ассоциативной памяти (АЛ), аналог однопроцессорного персонального компьютера, 32ИУ и 32АЛ, 128ИУ и 128АП. Результаты теста приведены в таблице 5.15.

Реальной и самой трудоемкой частью алгоритма являются операции с плавающей запятой. Однако при вычислении большая часть процессорного времени занята исполнением вспомогательных операций. Использование ассоциативной памяти при производительности исполнительных устройств, сравнимой с процессором персонального компьютера, приводит к значительному уменьшению числа вспомогательных операций, приходящихся на одну операцию с плавающей запятой. Так при реализации предложенной процедуры фильтрации на макете компьютера с ассоциативной памятью показывает, что на одну операцию с плавающей запятой приходится немногим больше, чем 2 вспомогательные операции, что, по крайней мере, в 2 — 2,5 раза меньше, чем при аналогичной реализации на персональном компьютере. Только это означает рост производительности, как минимум, в два раза, по сравнению с использованием процессоров с традиционной архитектурой.

Вторым. результатом использование ассоциативной памяти является практически полная загрузка исполнительных устройств (около 99%), что является большим достижением. Так, например, при использовании кластеров, даже на задачах с большим параллелизмом, очень хорошим результатом считается загрузка более 50%. Большая загруженность исполнительность устройств достигается за счет автоматического динамического распределения вычислений, что оказывается намного эффективней ручного распараллеливания на этапе программирования.

Быстрая реализация алгоритмов фильтрации (включая условно-оптимальные и адаптивные) является ключевой проблемой при применении методов представления и статистического анализа изображений. Рассмотренный пример показывает, что высокопроизводительные вычислительные средства на базе ассоциативной памятью могут значительно повысить качество и оперативность массовой обработки изображений в крупномасштабных информационных системах.

Похожие диссертации на Методы, алгоритмы и программное обеспечение интеграции биометрических информационных технологий