Микроэлектроника, 2019, T. 48, № 5, стр. 363-370

О построении нейроморфных справочников неисправностей для аналоговых интегральных схем

С. Г. Мосин *

Казанский (Приволжский) федеральный университет
420008 Казань, ул. Кремлевская, 18, Россия

* E-mail: smosin@ieee.org

Поступила в редакцию 30.11.2018
После доработки 03.04.2019
Принята к публикации 12.04.2019

Полный текст (PDF)

Аннотация

Методы машинного обучения активно используются для построения нейроморфных справочников неисправностей, которые обеспечивают диагностику неисправностей аналоговых и смешанных интегральных схем в ассоциативном режиме. Многие проблемы обучения нейронной сети, связанные с большим объемом исходных данных, могут быть решены путем уменьшения размеров обучающих наборов и использования в них только существенных характеристик. В статье представлен маршрут формирования НСН, предложен метод, основанный на вычислении энтропии, для выбора существенных характеристик обучающего набора, разработан соответствующий алгоритм. Приведены результаты экспериментальных исследований для аналогового фильтра, которые демонстрируют высокую эффективность предлагаемого метода: снижение времени обучения нейронной сети в 192 раза, покрытие полученным НСН до 95.0% катастрофических и до 84.81% параметрических неисправностей при диагностике.

Ключевые слова: диагностика неисправностей, нейроморфный справочник неисправностей, аналоговые ИС, энтропия, машинное обучение, автоматизация проектирования

1. ВВЕДЕНИЕ

Диагностика неисправностей аналоговых и смешанных интегральных схем остается важным этапом производственного цикла, обеспечивающим высокое качество и надежность изделий микроэлектроники [1, 2]. Рост функциональной и структурной сложности современных аналоговых и смешанных ИС определяет для них увеличение сложности диагностики неисправностей. Методы, основанные на моделировании неисправностей, в отличие от методов, основанных на контроле соответствия спецификации, обеспечивают решение не только задачи тестирования, но и диагностики неисправностей [3]. Моделирование поведения исправной схемы и схемы с возможными неисправностями с использованием соответствующих моделей требует серьезных вычислительных и временных затрат [4]. В результате моделирования накапливаются большие объемы информации о поведении схемы.

Интенсивный рост производительности современных вычислительных систем определяет бурное развитие приложений, основанных на методах машинного обучения (МО) и интеллектуального анализа данных, в том числе для задачи диагностики неисправностей в аналоговых и смешанных ИС [58]. Использование МО позволило перейти от традиционных справочников неисправностей в виде параметрических таблиц к нейросетевым, работающим в ассоциативном режиме. В этом случае существенно снижается время обнаружения и диагностики потенциальной неисправности, но появляются традиционные проблемы, связанные с обучением нейронной сети [612]:

– выбор архитектуры нейронной сети (вид НС, количество слоев и нейронов, используемая передаточная функция и др.);

– выбор обучающих наборов;

– снижение размерности обучающих наборов и др.

В данной работе предложен основанный на вычислении энтропии метод снижения размерности обучающего набора, а, следовательно, и снижения нейронов во входном слое НС.

2. ДЕКОМПОЗИЦИЯ МАРШРУТА ПОСТРОЕНИЯ НЕЙРОМОРФНОГО СПРАВОЧНИКА НЕИСПРАВНОСТЕЙ ДЛЯ АНАЛОГОВЫХ СХЕМ

Формирование условий и механизмов тестирования и диагностики разрабатываемой схемы осуществляют в рамках тестопригодного проектирования, учитывая структуру схемы и ее особенности уже на ранних этапах проектирования. Маршрут формирования справочника неисправностей на основе нейронной сети представлен на рис. 1.

Рис. 1.

Маршрут формирования нейроморфного справочника неисправностей.

Исходные данные

Список соединений (netlist) оригинальной схемы; список возможных неисправностей FL = [${{f}_{j}}$], j = 1..N, который может включать как катастрофические, так и параметрические неисправности; модели неисправностей. Для каждого i-го состояния схемы ${{c}_{i}} \in {\mathbf{C}}$ формируется соответствующее описание схемы, которое поступает на моделирование,

(1)
${\mathbf{C}} = {{{\mathbf{C}}}_{{ff}}} \cup {{{\mathbf{C}}}_{{cf}}} \cup {{{\mathbf{C}}}_{{pf}}};$
(2)
${{{\mathbf{C}}}_{{ff}}} = {{c}_{1}};$
(3)
${{{\mathbf{C}}}_{{cf}}} = \left[ {{{c}_{k}}} \right],\,\,\,\,k = 2..\left( {{{N}_{{cf}}} + 1} \right);$
(4)
${{{\mathbf{C}}}_{{pf}}} = \left[ {{{c}_{l}}} \right],\,\,\,\,l = \left( {{{N}_{{cf}}} + 2} \right)..\left( {{{N}_{{cf}}} + 1 + {{N}_{{pf}}}} \right),$
где Cff – состояние исправной схемы; Ccf – множество состояний схемы с катастрофическими неисправностями; Cpf – множество состояний схемы с параметрическими неисправностями; Ncf – количество рассмотренных катастрофических неисправностей; Npf – количество рассмотренных параметрических неисправностей.

Моделирование

Для учета динамических и нелинейных свойств аналоговой схемы моделирование осуществляется во временной области с использованием анализа переходного режима. Для учета влияния допусков в ходе моделирования использован метод Монте-Карло, который обеспечивает вычисление наиболее реалистичных значений выходных откликов схемы с учетом статистической функции распределения параметров внутренних компонентов [13].

Значение параметра для каждого внутреннего компонента схемы ${{p}_{i}}$ на каждом шаге моделирования рассчитывают по формуле

(5)
${{p}_{i}} = {{p}_{{{\text{nom}}\_i}}}\left( {1 + {{\Delta }_{i}}{{\xi }_{i}}} \right),$
где ${{p}_{{{\text{nom}}\_i}}}$ – номинальное значение параметра i-го компонента из списка соединений; ${{\Delta }_{i}}$ – относительный разброс параметра ${{p}_{i}};$ ${{\xi }_{i}}$ – центрированная случайная величина, принимающая значение на отрезке (–1, +1) по нормальному закону с нулевым математическим ожиданием и среднеквадратическим отклонением $\sigma = 0.25.$ В ходе моделирования аналоговой схемы методом Монте-Карло можно задавать закон распределения, соответствующий типовым разбросам параметров внутренних компонентов для реальной технологической линии.

Многократное повторение расчета выходной функции при случайных отклонениях параметров внутренних компонентов позволяет сформировать множество выходных откликов схемы

(6)
${\mathbf{R}} = \left[ {{{{\mathbf{R}}}_{i}}} \right],\,\,\,\,{{{\mathbf{R}}}_{i}} = \left[ {{\mathbf{r}}_{i}^{m}} \right],\,\,\,\,{\mathbf{R}} \in {{\Re }_{{NR \times t}}},$
где $r_{i}^{m}$ – вектор временных отсчетов выходного отклика схемы длины t, i = 1...N + 1 – количество состояний схемы, m – количество итераций метода Монте-Карло, NR = mN + m, t – количество временных точек.

Вейвлет-преобразование

В силу влияния шумов, нелинейных искажений, фазового сдвига и т.п. непосредственное использование выходных откликов для тестирования и диагностики нежелательно без предварительной обработки или выделения из них существенных характеристик. В маршруте предложено использовать вейвлет-преобразование для представления непрерывного аналогового сигнала во временной области дискретными значениями в частотной области.

В ходе вейвлет-преобразования одномерного сигнала реализуется его представление в виде обобщенного ряда или интеграла Фурье (7) по системе базисных функций (8), сконструированных из материнского вейвлета $\psi \left( t \right),$ за счет операций сдвига во времени (b) и изменения временного масштаба (a). Множитель ${1 \mathord{\left/ {\vphantom {1 {\sqrt a }}} \right. \kern-0em} {\sqrt a }}$ обеспечивает независимость нормы этих функций от масштабирующего числа a

(7)
$W\left( {a,b} \right) = \int\limits_{ - \infty }^\infty {f\left( t \right)} \psi _{{a,b}}^{*}\left( t \right)dt,$
(8)
${{\psi }_{{ab}}} = \frac{1}{{\sqrt a }}\psi \left( {\frac{{t - b}}{a}} \right).$

В результате вейвлет-преобразования

(9)
$WT:{\mathbf{R}} \to {\mathbf{X}}$
непрерывный выходной отклик представляют кортежем коэффициентов масштабирования a и сдвига b: x = [a; b], а множество рассматриваемых откликов – матрицей коэффициентов вейвлет-преобразования

${\mathbf{X}}{\text{ = [}}{{x}_{i}}{\text{],}}\,\,\,\,i{\text{ = 1}}..N{\text{,}}\,\,\,\,{\mathbf{X}}{\text{ }} \in {{\Re }_{{N \times M}}}.$

Выбор существенных характеристик

Не все коэффициенты ВП одинаково полезны для определения различий откликов одних состояний схемы от откликов других состояний. Использование большого числа коэффициентов на входе НС, в том числе числе незначащих, приводит к росту сложности и вычислительным затратам на обучение. Кроме того, может спровоцировать проблемы сходимости или переобучения НС. В этой связи снижение размерности вектора коэффициентов ВП на входе НС за счет выбора из них наиболее значимых – важная задача. Для ее решения предложен метод на основе вычисления энтропии, суть которого:

(10)
$Entr:X \to \hat {X},\,\,\,\,X \in {{\Re }_{{N \times M}}},\,\,\,\,\hat {X} \in {{\Re }_{{N \times \hat {M}}}},\,\,\,\,M > \hat {M}.$

Обучение нейронной сети. Для построения нейроморфного СН выбрана трехслойная нейронная сеть. Множество коэффициентов ВП $\hat {X}$ представляем двумя подмножествами – обучающим (${{\hat {X}}_{{{\text{train}}}}}$) и тестовым (${{\hat {X}}_{{{\text{test}}}}}$). Обучение НС осуществляется с применением строк матрицы ${{\hat {X}}_{{{\text{train}}}}}$ и ассоциированных с ними выходных векторов ${{y}_{i}}.$ Длина ${{y}_{i}}$ соответствует количеству рассматриваемых состояний схемы и определяет количество нейронов в выходном слое НС. Для представления состояния использована прямая схема, когда все разряды вектора принимают значение 0 за исключением разряда, соответствующего номеру текущего рассматриваемого состояния, где назначена 1. Обучение НС завершается при достижении допустимого уровня ошибки обучения или превышении максимального числа итераций обучения. При невыполнении первого или второго условий возможно повторное обучение НС.

Оценка покрываемости неисправностей

Качество обучения НС для решения задачи диагностики оценивают общим показателем покрываемости неисправностей в схеме:

(11)
$FC = \frac{{{{N}_{{{\text{detected}}}}}}}{{{{N}_{{{\text{total}}}}}}},$
где ${{N}_{{{\text{detected}}}}}$ – количество обнаруженных неисправностей, ${{N}_{{{\text{total}}}}}$ – общее количество неисправностей, а также покрываемостью отдельно взятой неисправности:
(12)
$F{{C}_{i}} = \frac{{N_{{{\text{detected}}}}^{i}}}{{N_{{{\text{total}}}}^{i}}},$
где $N_{{{\text{detected}}}}^{i}$ – количество обнаруженных i-х неисправностей, $N_{{{\text{total}}}}^{i}$ – общее количество i-х неисправностей.

Если покрываемость неисправностей ниже требуемого уровня, то необходимо пересмотреть множество используемых коэффициентов ${\mathbf{\hat {X}}}$ и повторить обучение НС.

3. МЕТОД ВЫБОРА СУЩЕСТВЕННЫХ ХАРАКТЕРИСТИК НА ОСНОВЕ ВЫЧИСЛЕНИЯ ЭНТРОПИИ

Исходные данные для построения нейросетевого справочника неисправностей накапливаются в ходе моделирования во временной области исправного и неисправного поведения схемы для заданного набора неисправностей. Для учета влияния допусков на поведение схемы каждое состояние моделируют многократно с применением метода Монте-Карло. Временные отклики схемы в тестовых узлах нецелесообразно напрямую использовать для обучения НС. Как правило, предварительно выполняют спектральное разложение непрерывного сигнала во временной области в дискретный сигнал в частотной области, используя Фурье или вейвлет преобразования. В итоге для каждого i-го отклика формируют вектор коэффициентов

${{{\mathbf{x}}}_{i}} = \left[ {{{x}_{{ij}}}} \right],\,\,\,\,i,j \in {{{\mathbf{Z}}}_{ + }},\,\,\,\,{{x}_{{ij}}} \in {\mathbf{R}},$
i – количество откликов схемы, j – количество коэффициентов для каждого отклика. Поведение исправной и неисправной схемы можно представить матрицей ${\mathbf{X}} = \left[ {{{{\mathbf{x}}}_{i}}} \right],$ ${\mathbf{X}} \in {{\Re }_{{i \times j}}},$ которая состоит из подматриц ${{{\mathbf{X}}}^{k}} \in {{\Re }_{{{{m}_{k}} \times j}}}$ для каждого рассматриваемого k-го состояния схемы, ${{m}_{k}} \in {{{\mathbf{Z}}}_{ + }}$ определяет число итераций методом Монте-Карло для k-го состояния.

В общем случае поведение схемы для различных состояний может совпадать, т.е.

(13)
$\exists \left( {i,j} \right),\,\,\,\,{{{\mathbf{X}}}^{i}} \cap {{{\mathbf{X}}}^{j}} \ne \emptyset ,\,\,\,\,i \ne j,\,\,\,\,i,j \in {{{\mathbf{Z}}}_{ + }},$
тогда диагностика будет возможна с точностью до двойственной группы (AG).

Для однозначной диагностики важно выполнение следующего условия

(14)
${\mathbf{X}}_{i}^{p} \ne {\mathbf{X}}_{j}^{r},\,\,\,\,\forall i,j,p,r,\,\,\,\,i \in \left[ {1..{{m}_{p}}} \right],\,\,\,\,j \in \left[ {1..{{m}_{r}}} \right],\,\,\,\,p \ne r.$

Не все коэффициенты в векторе ${{{\mathbf{x}}}_{i}}$ значимы для решения задачи диагностики. Для снижения неоднозначности, а также сложности обучения нейронной сети с использованием ${{{\mathbf{x}}}_{i}}$ важно выбрать только существенные коэффициенты, влияющие на различимость различных состояний схемы. Для выбора соответствующих коэффициентов предложено использовать энтропию.

Для расчета энтропии необходимо преобразовать матрицу ${\mathbf{X}}$ согласно следующим правилам.

1. Для каждого столбца j близкие значения коэффициентов включить в двойственную группу

${\mathbf{AG}}_{j}^{k},$ $k = 1 \ldots {{n}_{j}},$ ${{n}_{j}}$ – количество двойственных групп в столбце j.

2. Заменить в каждом столбце значения коэффициентов номерами двойственных групп (k), к которым они принадлежат.

Таким образом, двойственное группирование $AG:{\mathbf{X}} \to {\mathbf{S}}$ приводит к построению матрицы

${\mathbf{S}} = \left[ {{{s}_{{ij}}}} \right],\,\,\,\,{{s}_{{ij}}} \in {{{\mathbf{Z}}}_{ + }},$

с номерами двойственных групп.

Пусть ${{N}_{{pr}}},$ $p \in \left[ {1..k} \right]$ – количество элементов в двойственной группе ${\mathbf{AG}}_{r}^{p}.$ Вероятность появления любого состояния из двойственной группы ${\mathbf{AG}}_{r}^{p}$ равна отношению ${{{{N}_{{pr}}}} \mathord{\left/ {\vphantom {{{{N}_{{pr}}}} {{{m}_{i}},}}} \right. \kern-0em} {{{m}_{i}},}}$ ${{m}_{i}}$ – количество строк в матрице ${\mathbf{S}}.$ Тогда энтропия для любого j-го столбца матрицы ${\mathbf{S}}$ вычисляется согласно выражению (15).

Количество строк в матрице ${\mathbf{S}}$ есть фиксированная величина, поэтому объем информации важной для диагностики неисправностей с применением j-го коэффициента, становится максимальным при минимизации коэффициента энтропии (16)–(17).

(15)
${{E}_{j}} = - \left[ {\frac{{{{N}_{{1j}}}}}{{{{m}_{i}}}}\log \left( {\frac{{{{N}_{{1j}}}}}{{{{m}_{i}}}}} \right) + \frac{{{{N}_{{2j}}}}}{{{{m}_{i}}}}\lg \left( {\frac{{{{N}_{{2j}}}}}{{{{m}_{i}}}}} \right) + } \right....\left. { + \frac{{{{N}_{{kj}}}}}{{{{m}_{i}}}}\lg \left( {\frac{{{{N}_{{kj}}}}}{{{{m}_{i}}}}} \right)} \right] = \lg \left( {{{m}_{i}}} \right) - \frac{1}{{{{m}_{i}}}}\sum\limits_{i = 1}^k {{{N}_{{ij}}}\lg \left( {{{N}_{{ij}}}} \right){\text{ }}} .$
(16)
$\mathop {\arg \max }\limits_j \left( {{{E}_{j}}} \right) = \mathop {\arg \min }\limits_j \left( {E{{R}_{j}}} \right),$
(17)
$E{{R}_{j}} = \sum\limits_{i = 1}^k {{{N}_{{ij}}}\lg \left( {{{N}_{{ij}}}} \right)} .$

4. ОПИСАНИЕ АЛГОРИТМА

Алгоритм выбора существенных коэффициентов включает следующие шаги.

1. Сформировать матрицу S по известным значениям коэффициентов выходных откликов схемы из Х.

2. Вычислить число элементов в каждой двойственной группе для каждого j-го столбца матрицы S.

3. Рассчитать коэффициент энтропии ER(j).

4. Добавить j-й коэффициент с минимальным значением ER(j) во множество выбранных ранее коэффициентов и исключить соответствующий столбец из дальнейших расчетов.

5. Переформировать матрицу S в соответствии с порядком двойственных групп выбранного коэффициента, а также удалить из нее строки, мощность двойственной группы для которых равна 1 для данного коэффициента. В случае k двойственных групп для выбранного j-го столбца матрицы S формируют k подматриц ${{{\mathbf{S}}}^{i}},$ $i = 1..k.$

6. Рассчитать коэффициент ER(j) для оставшихся коэффициентов с учетом присутствия двойственных групп в каждой из подматриц ${{{\mathbf{S}}}^{i}}$

(18)
$ER\left( j \right) = \sum\limits_{i = 1}^k {E{{R}^{i}}} \left( j \right),$
где $E{{R}^{i}}\left( j \right)$ – коэффициент энтропии, рассчитанный для подматрицы ${{{\mathbf{S}}}^{i}}.$

7. Если коэффициент ER(j) оказывается равным нулю, для всех j или ER(j) принимает то же значение, что и ранее, для всех j, то процесс прекращается. В противном случае необходимо перейти к шагу 4.

5. ЭКСПЕРИМЕНТАЛЬНАЯ ЧАСТЬ

Исследование предлагаемого метода выполнено для контрольной схемы аналогового фильтра Саллена-Ки (рис. 2). В качестве тестового сигнала используется синусоидальный сигнал амплитудой 1 В и частотой 72 Гц. Допуски на параметры внутренних компонентов схемы определены равными 10% для резисторов и конденсаторов. Список рассмотренных одиночных неисправностей включает 14 катастрофических и 14 параметрических неисправностей. Катастрофические неисправности представлены обрывом цепи и коротким замыканием для каждого компонента схемы. Параметрические неисправности для каждого компонента задаются отклонениями ±50% от его номинального значения.

Рис. 2.

Схема аналогового фильтра Саллена-Ки.

Моделирование схемы фильтра для 29 состояний (одно исправное и 28 неисправных) выполнено во временной области с использованием метода Монте-Карло. Для моделирования схем использован пакет PSpice САПР CADENCE. Количество итераций для исправного состояния составляет 20 000, а для каждого неисправного состояния – 5000. Выходные отклики измеряются в течение одного периода относительно тестового узла 4 через 80 мс с момента запуска теста (по завершении переходных процессов).

Вейвлет Добеши четвертого порядка (db4) используется для преобразования выходных откликов из временной области в частотную. В результате для каждого сигнала формируется вектор коэффициентов длиной 148 элементов. В обучающее множество включены 600 векторов из 20 000 для исправного состояния и 200 векторов из 5000 для каждого неисправного состояния. В результате обучающий набор представлен матрицей коэффициентов вейвлет-преобразования размерностью 6200 на 148 элементов. Отклики, не включенные в обучающий набор, образуют тестовый набор.

Трехслойная нейронная сеть использована для построения нейроморфного справочника неисправностей. Количество нейронов во входном слое равно количеству коэффициентов в строке матрицы обучающих наборов. Выходной слой состоит из 29 нейронов для представления рассматриваемых состояний схемы относительно соответствующего отдельного выходного нейрона. Количество нейронов во входном слое для исходной матрицы равно 148, после применения метода выбраны только 19 существенных коэффициентов, что позволило сократить размерность обучающего набора в 7.8 раз.

Пакет инструментов Neural Network программы математических расчетов MATLAB использован для построения и обучения нейронной сети на вычислительной системе с процессором Intel® Core ™ i7-4770 CPU @ 3.40 ГГц и оперативной памятью 8 Гб.

Проведено многократное обучение НСН с использованием полного и сокращенного обучающего набора. Статистические результаты покрытия отдельных неисправностей для тестового набора, полученные на двух архитектурах НСН, показаны в табл. 1. Анализ значений покрываемости отдельных неисправностей для режимов тестирования (FCtest) и диагностики (FCdiag) демонстрирует адекватность перехода от архитектуры 1 к архитектуре 2.

Таблица 1.  

Статистика покрытия отдельных неисправностей

Номер НСН 1 2
Архитектура НСН1 148 : 20 : 29 19 : 20 : 29
Время одной эпохи обучения, с μ2 σ3 μ σ
2328.95 30.04 12.11 1.53
Состояние схемы FCtest FCdiag FCtest FCdiag
μ σ μ σ μ σ μ σ
Исправное 92.09 0.85 90.46 1.08
Катастрофические неисправности R1_КЗ 100.0 0.0 100.0 0.0 100.0 0.0 99.99 0.03
R1_ОЦ 100.0 0.0 99.77 0.30 95.35 1.84 77.41 10.05
R2_КЗ 100.0 0.0 100.0 0.0 100.0 0.0 100.0 0.0
R2_ОЦ 100.0 0.0 99.60 0.89 100.0 0.0 99.91 0.05
R3_КЗ 99.95 0.07 95.83 0.65 99.97 0.04 94.38 1.10
R3_ОЦ 100.0 0.0 99.93 0.15 100.0 0.0 99.70 0.24
RA_КЗ 100.0 0.0 99.36 0.12 99.99 0.03 99.63 0.29
RA_ОЦ 100.0 0.0 100.0 0.0 100.0 0.0 100.0 0.0
RB_КЗ 100.0 0.0 100.0 0.0 100.0 0.0 100.0 0.0
RB_ОЦ 100.0 0.0 99.50 0.07 100.0 0.0 95.78 0.29
C1_КЗ 100.0 0.0 100.0 0.0 100.0 0.0 100.0 0.0
C1_ОЦ 99.84 0.20 95.70 1.86 99.91 0.12 87.19 5.26
C2_КЗ 100.0 0.0 58.92 0.61 100.0 0.0 75.98 13.87
C2_ОЦ 100.0 0.0 100.0 0.0 100.0 0.0 100.0 0.0
Параметрические неисправности R1_+50% 80.21 0.84 57.23 14.51 81.69 1.43 61.53 16.22
R1_–50% 96.09 0.31 91.96 0.54 95.93 0.75 91.14 1.74
R2_+50% 98.10 0.20 86.58 4.05 97.70 0.56 86.02 4.72
R2_–50% 100.0 0.0 86.58 10.18 100.0 0.0 94.81 6.85
R3_+50% 92.88 0.36 85.80 0.83 93.90 0.61 87.25 3.83
R3_–50% 99.93 0.13 71.12 6.01 99.96 0.05 67.89 13.82
RA_+50% 96.93 0.11 74.17 12.89 97.61 0.50 87.19 5.29
RA_–50% 99.82 0.21 87.68 1.38 99.98 0.03 80.75 3.89
RB_+50% 95.44 3.06 66.82 22.98 98.33 0.84 80.22 4.03
RB_–50% 100.0 0.0 96.73 1.32 100.0 0.0 94.51 1.55
C1_+50% 99.79 0.05 95.04 0.24 99.71 0.26 88.90 3.08
C1_–50% 99.98 0.02 96.87 1.07 99.99 0.03 93.02 2.26
C2_+50% 94.29 0.63 73.42 7.57 95.76 1.01 80.06 6.50
C2_–50% 100.0 0.0 95.95 4.91 100.0 0.0 94.00 5.99

1 Количество нейронов в первом: втором: третьем слое НС; 2 μ – математическое ожидание; 3 σ – среднеквадратическое отклонение.

Обнаружение исправного состояния фильтра на уровне порядка 90.5% связано с подобием поведения исправно функционирующей схемы и схемы с несколькими типами параметрических неисправностей. Увеличение количества откликов в обучающем наборе для исправной схемы улучшит качество диагностики для этого состояния, но в то же время приведет к увеличению ошибки второго рода, когда для соответствующих параметрических неисправностей схема будет признаваться исправной.

Общие статистические значения покрываемости неисправностей для режимов тестирования и диагностики, обеспеченные НСН с различными рассмотренными архитектурами, представлены в табл. 2. Применение предложенного метода обеспечило уменьшение размера обучающего набора за счет выбора существенных коэффициентов для диагностики рассматриваемых в схеме фильтра неисправностей в 7.8 раз и сокращение времени обучения в 192 раза, демонстрируя при этом высокий уровень покрытия неисправностей. Результирующий НСН обеспечивает до 100% покрытия отдельных неисправностей и до 99.7% полного покрытия неисправностей в схеме фильтра.

Таблица 2.  

Статистика общего покрытия неисправностей

Номер НСН α FCall FCcat FCpar
μ σ μ σ μ σ μ σ
Тестирование
1 7.91 0.85 98.33 0.16 99.99 0.02 96.68 0.32
2 9.54 1.08 98.42 0.17 99.66 0.13 97.18 0.27
Диагностика
1 89.40 0.54 95.51 1.93 83.28 2.19
2 89.90 1.01 95.00 1.32 84.81 2.07

α – величина ошибки первого рода для исправного состояния; FCall – покрываемость всех типов рассмотренных неисправностей; FCcat – покрываемость катастрофических неисправностей; FCpar – покрываемость параметрических неисправностей.

ЗАКЛЮЧЕНИЕ

Современные вычислительные системы позволяют провести исчерпывающее моделирование поведения аналоговых и смешанных интегральных схем с учетом как исправного состояния, так и потенциальных неисправных состояний с учетом допусков компонентов и использования метода статистических испытаний. Всестороннее моделирование поведения схемы приводит к накоплению больших объемов данных, которые могут быть обработаны с использованием методов машинного обучения и интеллектуального анализа данных. Методы машинного обучения активно используются для построения нейроморфных справочников неисправностей, которые обеспечивают диагностику неисправностей аналоговых и смешанных ИС в ассоциативном режиме. Многие проблемы обучения нейронной сети, связанные с большим объемом исходных данных, могут быть решены путем уменьшения размера обучающих наборов и использования только существенных характеристик.

Предлагаемый метод на основе энтропии позволяет уменьшить количество коэффициентов во входном обучающем наборе. Экспериментальные результаты подтвердили эффективность предлагаемого метода: сокращение обучающего набора в 7.8 раза привело к сокращению времени обучения более чем в 192 раза. НСН, полученный в результате, обеспечивает решение задач, как тестирования, так и диагностики неисправностей в ассоциативном режиме, что позволяет существенно сократить время реализации данных процедур для партии ИС. Экспериментальные исследования демонстрируют высокий уровень покрытия неисправностей: при тестировании для катастрофических неисправностей до 99.66% и для параметрических неисправностей до 97.18%; а при диагностике до 95.0 и 84.81% для катастрофических и параметрических неисправностей соответственно. Предлагаемый метод может быть интегрирован в маршрут тестопригодного проектирования аналоговых и смешанных ИС.

Работа выполнена за счет средств субсидии, выделенной в рамках государственной поддержки Казанского (Приволжского) федерального университета в целях повышения его конкурентоспособности среди ведущих мировых научно-образовательных центров.

Список литературы

  1. Емашов А.В. Задачи построения алгоритмов поиска неисправностей аналоговых промышленных объектов // Системы. Методы. Технологии. 2017. № 1(33). С. 85–90.

  2. Воловикова Е.В., Увайсов С.У. Диагностика аналоговых схем с учетом тепловых режимов электро- и радио-элементов // Качество. Инновации. Образование. 2009. № 3(46). С. 23–29.

  3. Bilski P., Wojciechowski J. Automatic parametric fault detection in complex analog systems based on a method of minimum node selection // International J. Applied Mathematics and Computer Science. 2016. V. 26. № 3. P. 655–668.

  4. Xu Q., Cui S., Xu C., Han L. The Research on Fault Model in Nonlinear Analog and Mixed-Signal Circuits // Procedia Engineering. 2012. V. 29. P. 4152–4156.

  5. Huang K., Stratigopoulos H.G., Mir S. Fault diagnosis of analog circuits based on machine learning // In Proc. of Design, Automation & Test in Europe Conference & Exhibition (DATE 2010). 2010. P. 1761–1766.

  6. Bilski P., Wojciechowski J. Artificial intelligence methods in diagnostics of analog systems // International Journal of Applied Mathematics and Computer Science. 2014. V. 24. № 2. P. 271–282.

  7. Vasan A.S.S., Long B., Pecht M. Diagnostics and Prognostics Method for Analog Electronic Circuits // IEEE Transactions on Industrial Electronics. 2013. V. 60(11). P. 5277–5291.

  8. Lang R., Xu Z., Gao F. Data-driven fault diagnosis method for analog circuits based on robust competitive agglomeration // Journal of Systems Engineering and Electronics. 2013. V. 24(4). P. 706–712.

  9. Мосин С.Г. Тестирование аналоговых схем с использованием нейросетевого сигнатурного анализатора // Вестник информационных и компьютерных технологий. 2012. № 10. С. 3–8.

  10. Rutkowski J., Grzechca D. Use of Artificial Intelligence Techniques to Fault Diagnosis in Analog Systems // Proc. 2nd European Computing Conference (ECC’08). 2008. P. 267–274.

  11. Mosin S. Quality improvement of analog Circuits Fault Diagnosis based on ANN using clusterization as preprocessing // Proc. of IEEE East-West Design and Test Symposium (EWDTS’2015). 2015. P. 96–99.

  12. Mosin S. A technique of analog circuits testing and diagnosis based on neuromorphic classifier // Advances in Intelligent Systems and Computing. 2016. V. 425. P. 381–393.

  13. Mosin S. Automated simulation of faults in analog circuits based on parallel paradigm // Proc. IEEE East-West Design & Test Symposium. 2017. P. 1–6.

Дополнительные материалы отсутствуют.