<?xml version="1.0" encoding="UTF-8" ?>
<rss version="2.0" xmlns:content="http://purl.org/rss/1.0/modules/content/" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:atom="http://www.w3.org/2005/Atom">
	<channel>
		<title>chaba_boss</title>
		<link>http://chaboss.my1.ru/</link>
		<description></description>
		<lastBuildDate>Sat, 15 Jan 2011 12:25:14 GMT</lastBuildDate>
		<generator>uCoz Web-Service</generator>
		<atom:link href="https://chaboss.my1.ru/news/rss" rel="self" type="application/rss+xml" />
		
		<item>
			<title>Трейлер к фильму Пол: Секретный материальчик</title>
			<description>&lt;iframe title=&quot;YouTube video player&quot; width=&quot;640&quot; height=&quot;390&quot; src=&quot;http://www.youtube.com/embed/j6iHD22nfV4&quot; frameborder=&quot;0&quot; allowfullscreen=&quot;&quot;&gt;&lt;/iframe&gt;</description>
			<content:encoded>&lt;iframe title=&quot;YouTube video player&quot; width=&quot;640&quot; height=&quot;390&quot; src=&quot;http://www.youtube.com/embed/j6iHD22nfV4&quot; frameborder=&quot;0&quot; allowfullscreen=&quot;&quot;&gt;&lt;/iframe&gt;</content:encoded>
			<link>https://chaboss.my1.ru/news/trejler_k_filmu_pol_sekretnyj_materialchik_eng/2011-01-15-68</link>
			<dc:creator>chaboss</dc:creator>
			<guid>https://chaboss.my1.ru/news/trejler_k_filmu_pol_sekretnyj_materialchik_eng/2011-01-15-68</guid>
			<pubDate>Sat, 15 Jan 2011 12:25:14 GMT</pubDate>
		</item>
		<item>
			<title>я четвёртый (трейлер)</title>
			<description>&lt;iframe src=&quot;http://vkontakte.ru/video_ext.php?oid=-18044128&amp;id=153440766&amp;hash=b150c945ed3fb86b&amp;hd=1&quot; width=&quot;607&quot; height=&quot;360&quot; frameborder=&quot;0&quot;&gt;&lt;/iframe&gt;</description>
			<content:encoded>&lt;iframe src=&quot;http://vkontakte.ru/video_ext.php?oid=-18044128&amp;id=153440766&amp;hash=b150c945ed3fb86b&amp;hd=1&quot; width=&quot;607&quot; height=&quot;360&quot; frameborder=&quot;0&quot;&gt;&lt;/iframe&gt;</content:encoded>
			<link>https://chaboss.my1.ru/news/ja_chetvjortyj_trejler/2011-01-15-67</link>
			<dc:creator>chaboss</dc:creator>
			<guid>https://chaboss.my1.ru/news/ja_chetvjortyj_trejler/2011-01-15-67</guid>
			<pubDate>Sat, 15 Jan 2011 12:19:09 GMT</pubDate>
		</item>
		<item>
			<title>Mortal Kombat Rebirth Introduction Trailer Released...</title>
			<description>&lt;p&gt;&lt;iframe src=&quot;http://vkontakte.ru/video_ext.php?oid=28463194&amp;amp;id=145694681&amp;amp;hash=b62294fd6f4b93f2&amp;amp;hd=1&quot; width=&quot;607&quot; height=&quot;360&quot; frameborder=&quot;0&quot;&gt;&lt;/iframe&gt;&lt;/p&gt;&lt;p&gt;Год выхода в прокат: 2013&lt;/p&gt;</description>
			<content:encoded>&lt;p&gt;&lt;iframe src=&quot;http://vkontakte.ru/video_ext.php?oid=28463194&amp;amp;id=145694681&amp;amp;hash=b62294fd6f4b93f2&amp;amp;hd=1&quot; width=&quot;607&quot; height=&quot;360&quot; frameborder=&quot;0&quot;&gt;&lt;/iframe&gt;&lt;/p&gt;&lt;p&gt;Год выхода в прокат: 2013&lt;/p&gt;</content:encoded>
			<link>https://chaboss.my1.ru/news/mortal_kombat_rebirth_introduction_trailer_released/2011-01-11-66</link>
			<dc:creator>chaboss</dc:creator>
			<guid>https://chaboss.my1.ru/news/mortal_kombat_rebirth_introduction_trailer_released/2011-01-11-66</guid>
			<pubDate>Tue, 11 Jan 2011 12:09:39 GMT</pubDate>
		</item>
		<item>
			<title>&quot;Запретный приём&quot;</title>
			<description>&lt;iframe src=&quot;http://vkontakte.ru/video_ext.php?oid=58692&amp;amp;id=158663536&amp;amp;hash=1e5c1aadca4a50f6&amp;amp;hd=1&quot; width=&quot;607&quot; height=&quot;360&quot; frameborder=&quot;0&quot;&gt;&lt;/iframe&gt;</description>
			<content:encoded>&lt;iframe src=&quot;http://vkontakte.ru/video_ext.php?oid=58692&amp;amp;id=158663536&amp;amp;hash=1e5c1aadca4a50f6&amp;amp;hd=1&quot; width=&quot;607&quot; height=&quot;360&quot; frameborder=&quot;0&quot;&gt;&lt;/iframe&gt;</content:encoded>
			<link>https://chaboss.my1.ru/news/zapretnyj_prijom/2011-01-11-65</link>
			<dc:creator>chaboss</dc:creator>
			<guid>https://chaboss.my1.ru/news/zapretnyj_prijom/2011-01-11-65</guid>
			<pubDate>Mon, 10 Jan 2011 22:57:05 GMT</pubDate>
		</item>
		<item>
			<title>Общая неформальная постановка задачи</title>
			<description>Многие задачи: распознавания образов (зрительных, речевых и т.д.), выполнения функциональных преобразований при обработке сигналов, управления, прогнозирования, идентификации сложных систем и т.д. -сводятся к следующей математической постановке. Необходимо построить отображение такое, чтобы на каждый возможный входной сигнал X формировался правильный выходной сигнал Y. Отображение задается конечным набором пар (&lt;вход&amp;gt;, &lt;известный выход&amp;gt;). Число таких пар (обучающих примеров) существенно меньше общего числа возможных сочетаний значений входных и выходных сигналов. Совокупность всех обучающих примеров носит название обучающей выборки. &lt;BR&gt;&lt;BR&gt;В задачах распознавания образов X - некоторое представление образа (изображение, вектор чисел и т.д.), Y - номер класса, к которому принадлежит входной образ. &lt;BR&gt;&lt;BR&gt;В задачах управления X - набор контролируемых параметров управляемого объекта, Y - код, определяющий управляющее воздействие, соответствующее текущим значениям контролируем...</description>
			<content:encoded>Многие задачи: распознавания образов (зрительных, речевых и т.д.), выполнения функциональных преобразований при обработке сигналов, управления, прогнозирования, идентификации сложных систем и т.д. -сводятся к следующей математической постановке. Необходимо построить отображение такое, чтобы на каждый возможный входной сигнал X формировался правильный выходной сигнал Y. Отображение задается конечным набором пар (&lt;вход&amp;gt;, &lt;известный выход&amp;gt;). Число таких пар (обучающих примеров) существенно меньше общего числа возможных сочетаний значений входных и выходных сигналов. Совокупность всех обучающих примеров носит название обучающей выборки. &lt;BR&gt;&lt;BR&gt;В задачах распознавания образов X - некоторое представление образа (изображение, вектор чисел и т.д.), Y - номер класса, к которому принадлежит входной образ. &lt;BR&gt;&lt;BR&gt;В задачах управления X - набор контролируемых параметров управляемого объекта, Y - код, определяющий управляющее воздействие, соответствующее текущим значениям контролируемых параметров. &lt;BR&gt;&lt;BR&gt;В задачах прогнозирования в качестве входных сигналов используются временные ряды, представляющие значения контролируемых переменных на некотором интервале времени. Выходной сигнал - множество переменных, которое является подмножеством переменных входного сигнала. &lt;BR&gt;&lt;BR&gt;При идентификации X и Y представляют входные и выходные сигналы системы соответственно. &lt;BR&gt;&lt;BR&gt;Вообще говоря, большая часть прикладных задач может быть сведена к реализации сложного многомерного функционального преобразования. &lt;BR&gt;&lt;BR&gt;В результате построения отображения &lt;IMG src=&quot;https://chaboss.my1.ru/IMG00144.gif&quot;&gt;необходимо добиться того, чтобы: &lt;BR&gt;обеспечивалось формирование правильных выходных сигналов в соответствии со всеми примерами обучающей выборки. &lt;BR&gt;обеспечивалось формирование правильных выходных сигналов в соответствии со всеми возможными входными сигналами, которые не вошли в обучающую выборку. &lt;BR&gt;&lt;BR&gt;Второе требование в значительной степени усложняет задачу формирования обучающей выборки. Эта задача в общем виде в настоящее время не решена. Однако во всех известных случаях было найдено частное решение. Дальнейшие рассуждения предполагают, что обучающая выборка уже сформирована. &lt;BR&gt;&lt;P&gt;&lt;STRONG&gt;Теорема Колмогорова-Арнольда&lt;/STRONG&gt; &lt;BR&gt;&lt;/P&gt;&lt;BR&gt;Отображение&lt;IMG src=&quot;https://chaboss.my1.ru/IMG00144.gif&quot;&gt; в общем случае является многомерным, то есть X и Y - вектора с размерностью больше единицы. Построить отображение - это значит представить его с помощью традиционных математических операций, которые, в частности, легко могут быть реализованы на персональном компьютере. Примеры таких операций: сложение, умножение, деление, SIN, COS и т.д. Эти операции имеют не более двух переменных (аргументов). &lt;BR&gt;&lt;BR&gt;Проблема представление функций многих переменных в виде суперпозиции функций меньшего числа переменных восходит еще к так называемой 13-й проблеме Гильберта. Этот математик предполагал, что представить функцию многих переменных в виде суперпозиции функций меньшего числа переменных невозможно. &lt;BR&gt;&lt;BR&gt;В результате многолетней научной полемики между А.Н. Колмогоровым и В.И. Арнольдом был получен целый ряд важных теоретических результатов, опровергающих тезис Гильберта: &lt;BR&gt;Теорема о возможности представления непрерывных функций нескольких переменных суперпозициями непрерывных функций меньшего числа переменных. (1956 г.) [1]. &lt;BR&gt;Теорема о представлении любой непрерывной функции трех переменных в виде суммы функций не более двух переменных (1957 г.) [5]. &lt;BR&gt;Теорема о представлении непрерывных функций нескольких переменных в виде суперпозиций непрерывных функций одного переменного и сложения (1957 г.) [2,3]. &lt;BR&gt;&lt;STRONG&gt;Работа Хехт-Нильсена &lt;BR&gt;&lt;/STRONG&gt;Последний, наиболее сильный результат в 1987 году был переложен Хехт-Нильсеном в термины теории нейронных сетей [4]. &lt;BR&gt;&lt;BR&gt;Теорема Хехт-Нильсена доказывает представимость функции многих переменных достаточно общего вида&lt;IMG src=&quot;https://chaboss.my1.ru/IMG00147.gif&quot;&gt; с помощью двухслойной нейронной сети с прямыми полными связями (рис. 1) с N компонентами входного сигнала, 2N+1 компонентами первого (&quot;скрытого&quot; слоя) с заранее известными ограниченными функциями активации (например, сигмоидальными) и M компонентами второго слоя с неизвестными функциями активации. Теорема, таким образом, в неконструктивной форме доказывает решаемость задачи представления функции достаточно произвольного вида на НС и указывает для каждой задачи минимальные значения числа нейронов сети, необходимых для решения. &lt;BR&gt;&lt;BR&gt; &lt;IMG src=&quot;https://chaboss.my1.ru/IMG00148.gif&quot; alt=&quot;4&quot; width=&quot;null&quot; height=&quot;null&quot;&gt;&lt;BR&gt;&lt;BR&gt;Рис. 1. Многослойная нейронная сеть. &lt;BR&gt;Следствия из теоремы Колмогорова-Арнольда-Хехт-Нильсена &lt;BR&gt;&lt;BR&gt;Следствие 1. Из теоремы в формулировке Хехт-Нильсена следует представимость любой многомерной функции нескольких переменных с помощью нейронной сети фиксированной размерности. Неизвестными остаются следующие характеристики функций активации нейронов: &lt;BR&gt;Ограничения области значений (т.е. координаты асимптот) сигмоидальных функций активации нейронов &quot;скрытого&quot; слоя. &lt;BR&gt;Наклон сигмоидальных функций активации. &lt;BR&gt;Вид функций активации нейронов второго слоя. &lt;BR&gt;&lt;BR&gt;Про функции активации нейронов второго слоя из теоремы Хехт-Нильсена известно только то, что они - нелинейные функции общего вида. В одной из работ, продолжающих развитие теории, связанной с рассматриваемой теоремой, доказывается, что функции нейронов второго слоя должны быть монотонно возрастающими. Это утверждение в некоторой степени сужает класс функций, которые могут потребоваться при реализации отображения с помощью двухслойной нейронной сети. &lt;BR&gt;&lt;BR&gt;На практике требования теоремы Хехт-Нильсена к функциям активации удовлетворяют следующим образом. В нейронных сетях как для первого, так и для второго слоя используют сигмоидальные передаточные функции с настраиваемыми параметрами. То есть, в процессе обучения индивидуально для каждого нейрона настраиваются следующие параметры функций активации: &lt;BR&gt;максимальное и минимальное значение функции, &lt;BR&gt;наклон сигмоидальной функции. &lt;BR&gt;&lt;BR&gt;Следствие 2. В монографии [6] показано, что для любого множества пар (Xk, yk) (где yk - скаляр) существует двухслойная однородная (с одинаковыми функциями активации) нейронная сеть первого порядка с последовательными связями и с конечным числом нейронов, которая выполняет отображение&lt;IMG src=&quot;https://chaboss.my1.ru/IMG00144.gif&quot;&gt; , выдавая на каждый входной сигнал Xk правильный выходной сигнал yk. Нейроны в такой двухслойной нейронной сети должны иметь сигмоидальные передаточные функции. К сожалению, эта теорема не конструктивна. В ней не заложена методика определения числа нейронов в сети для некоторой конкретной обучающей выборки. &lt;BR&gt;&lt;BR&gt;Для многих задач единичной размерности выходного сигнала не достаточно. Необходимо иметь возможность строить с помощью нейронных сетей функции&lt;IMG src=&quot;https://chaboss.my1.ru/IMG00144.gif&quot;&gt; , где Y имеет произвольную размерность. Следующее утверждение является теоретической основой для построения таких функций на базе однородных нейронных сетей. &lt;BR&gt;&lt;BR&gt;Утверждение. Для любого множества пар входных-выходных векторов произвольной размерности {(Xk, Yk), k=1...K} существует двухслойная однородная нейронная сеть с последовательными связями, с сигмоидальными передаточными функциями и с конечным числом нейронов, которая для каждого входного вектора Xk формирует соответствующий ему выходной вектор Yk. &lt;BR&gt;&lt;BR&gt;Доказательство. Пусть выходные векторы Yk имеют размерность N, то есть Yk=(yk1, yk2,... yki,... ykN). В соответствии со следствием из теоремы Колмогорова-Арнольда для любого множества пар {(Xk, yki), k=1...K} существует двухслойная однородная нейронная сеть с последовательными связями и с сигмоидальными передаточными функциями, которая для каждого входного вектора Xk формирует соответствующий ему выходной скаляр yki. Такая нейронная сеть существует для каждого номера элемента выходного вектора i=1..N. Во втором слое эти сети содержат по одному нейрону. Пусть в первом слое сети, соответствующей элементу выходного сигнала с номером i содержится Mi нейронов. &lt;BR&gt;&lt;BR&gt;Построим двухслойную однородную нейронную сеть с последовательными связями и с сигмоидальными передаточными функциями, содержащую в первом слое (M1+M2+...Mi+...MN) нейронов. Значения весов и смещений нейронов первого слоя равны соответствующим значениям нейронов сетей, построенных для пар (Xk, yki). Связи в этой сети между нейронами первого и второго слоев определим следующим образом. Значения синаптических весов первых M1 связей и значение смещения первого нейрона второго слоя совпадают с соответствующими значениями сети, построенной для пар (Xk, yk1). Остальные синаптические веса первого нейрона - нулевые. Значения синаптических весов связей с номерами (M1+1)...M2 и значение смещения второго нейрона второго слоя совпадают с соответствующими значениями сети, построенной для пар (Xk, yk2). Значения остальных синаптических весов второго нейрона равны нулю. Аналогично строятся синаптические веса и смещения других нейронов второго слоя. &lt;BR&gt;&lt;BR&gt;В результате такого построения получаем двухслойную однородную нейронную сеть с последовательными связями, с сигмоидальными передаточными функциями и с конечным числом нейронов, которая для каждого входного вектора Xk формирует соответствующий ему выходной вектор Yk. Это доказывает утверждение. &lt;BR&gt;&lt;BR&gt;Таким образом, для представления многомерных функций многих переменных может быть использована двухслойная однородная нейронная сеть с сигмоидальными передаточными функциями. &lt;BR&gt;&lt;BR&gt;Для оценки числа нейронов с скрытых слоях однородных нейронных сетей можно воспользоваться формулой для оценки необходимого числа синаптических весов Nw в многослойной сети с сигмоидальными передаточными функциями [7]: &lt;BR&gt;&lt;IMG src=&quot;https://chaboss.my1.ru/IMG00151.gif&quot;&gt;&lt;BR&gt;, &lt;BR&gt;&lt;BR&gt;где Ny - размерность выходного сигнала, Np - число элементов обучающей выборки, Nx - размерность входного сигнала. &lt;BR&gt;&lt;BR&gt;Оценив необходимое число весов, можно рассчитать число нейронов в срытых слоях. Например, число нейронов в двухслойной сети составит: &lt;BR&gt;&lt;BR&gt; &lt;IMG src=&quot;https://chaboss.my1.ru/IMG00152.gif&quot;&gt;&lt;BR&gt;&lt;BR&gt;Аналогично можно рассчитать число нейронов в сетях с большим числом слоев. &lt;BR&gt;Использование других моделей нейронных сетей для представления отображений &lt;BR&gt;&lt;BR&gt;Иногда целесообразно использовать сети с большим числом слоев. Такие многослойные нейронные сети могут иметь меньшие размерности матриц синаптических весов нейронов одного слоя, чем двухслойные сети, реализующие то же самое отображение. К сожалению, строгая методика построения таких сетей пока отсутствует. &lt;BR&gt;&lt;BR&gt;Аналогичная ситуация и с многослойными сетями, в которых помимо последовательных связей используются и прямые (то есть связи от слоя с номером m к слою с номером m+s, где s&amp;gt;1). Нет строгой теории, которая показывала бы возможность и целесообразность построения таких сетей. &lt;BR&gt;&lt;BR&gt;Наибольшие проблемы возникают при использовании так называемых сетей циклического функционирования. К этой группе нейросетевых моделей относятся многослойные сети с обратными связями (от слоя с номером m к слою с номером m+s, где s&lt;0), а также полносвязные сети. Для успешного функционирования этих моделей необходимо соблюдение условий динамической устойчивости. В противном случае при функционировании сеть может не сойтись к правильному решению, либо достигнув на некоторой итерации правильного значения выходного сигнала, после нескольких итераций уйти от этого значения. Проблема динамической устойчивости подробно исследована, пожалуй, лишь для одной модели из рассматриваемой группы - нейронной сети Хопфилда. &lt;BR&gt;&lt;BR&gt;Отсутствие строгой теории, связанной с перечисленными моделями нейронных сетей, не препятствует исследованию возможностей их применения для решения практических задач. &lt;BR&gt;Список литературы &lt;BR&gt;&lt;BR&gt;1. Колмогоров А.Н. О представлении непрерывных функций нескольких переменных суперпозициями непрерывных функций меньшего числа переменных // Докл. АН СССР, том 108, с. 2, 1956. &lt;BR&gt;&lt;BR&gt;2. Колмогоров А.Н. О представлении непрерывных функций нескольких переменных в виде суперпозиций непрерывных функций одного переменного и сложения // Докл. АН СССР, том 114, с. 953-956, 1957. &lt;BR&gt;&lt;BR&gt;Повторная публикация: Нейрокомпьютер, N 1-2, с. 51-55, 1994. &lt;BR&gt;&lt;BR&gt;3. Kolmogorov A.N. On the Representation of Continuous Functions of Many Variables by Superposition of Continuous Functions of One Variable and Addition, American Math. Soc. Transl., 28 (1963), pp. 55-63. &lt;BR&gt;&lt;BR&gt;4. Hecht-Nielsen R. Kolmogorov&apos;s Mapping Neural Network Existence Theorem // IEEE First Annual Int. Conf. on Neural Networks, San Diego, 1987, Vol. 3, pp. 11-13. &lt;BR&gt;&lt;BR&gt;5. Арнольд В.И. // Докл. АН СССР, том 114, N 4, 1957. &lt;BR&gt;&lt;BR&gt;6. Muller B., Reinhart J. Neural Networks: an introduction, Springer-Verlag, Berlin Heidelberg, 1990&lt;BR&gt;</content:encoded>
			<link>https://chaboss.my1.ru/news/obshhaja_neformalnaja_postanovka_zadachi/2010-02-06-64</link>
			<dc:creator>chaboss</dc:creator>
			<guid>https://chaboss.my1.ru/news/obshhaja_neformalnaja_postanovka_zadachi/2010-02-06-64</guid>
			<pubDate>Sat, 06 Feb 2010 10:15:41 GMT</pubDate>
		</item>
		<item>
			<title>Теория искусственных нейронных сетей. Основные положения</title>
			<description>Введение&lt;BR&gt; &lt;BR&gt; Искусственные нейронные сети (ИНС) строятся по принципам организации и функционирования их биологических аналогов. Они способны решать широкий круг задач распознавания образов, идентификации, прогнозирования, оптимизации, управления сложными объектами. Дальнейшее повышение производительности компьютеров все в большой мере связывают с ИНС, в частности, с нейрокомпьютерами (НК), основу которых составляет искусственная нейронная сеть.&lt;BR&gt; &lt;BR&gt; Термин «нейронные сети» сформировался к середине 50-х годов XX века. Основные результаты в этой области связаны с именами У. Маккалоха, Д. Хебба, Ф. Розенблатта, М. Минского, Дж. Хопфилда. Приведем краткую историческую справку.&lt;BR&gt; &lt;BR&gt; 1943 г. У. Маккалох (W. McCulloch) и У. Питтс (W. Pitts) предложили модель нейрона и сформулировали основные положения теории функционирования головного мозга.&lt;BR&gt; 1949 г. Д. Хебб (D. Hebb) высказал идеи о характере соединений нейронов мозга и их взаимодействии (клеточные ансамбли, синаптическая пла...</description>
			<content:encoded>Введение&lt;BR&gt; &lt;BR&gt; Искусственные нейронные сети (ИНС) строятся по принципам организации и функционирования их биологических аналогов. Они способны решать широкий круг задач распознавания образов, идентификации, прогнозирования, оптимизации, управления сложными объектами. Дальнейшее повышение производительности компьютеров все в большой мере связывают с ИНС, в частности, с нейрокомпьютерами (НК), основу которых составляет искусственная нейронная сеть.&lt;BR&gt; &lt;BR&gt; Термин «нейронные сети» сформировался к середине 50-х годов XX века. Основные результаты в этой области связаны с именами У. Маккалоха, Д. Хебба, Ф. Розенблатта, М. Минского, Дж. Хопфилда. Приведем краткую историческую справку.&lt;BR&gt; &lt;BR&gt; 1943 г. У. Маккалох (W. McCulloch) и У. Питтс (W. Pitts) предложили модель нейрона и сформулировали основные положения теории функционирования головного мозга.&lt;BR&gt; 1949 г. Д. Хебб (D. Hebb) высказал идеи о характере соединений нейронов мозга и их взаимодействии (клеточные ансамбли, синаптическая пластичность). Впервые предложил правила обучения нейронной сети.&lt;BR&gt; 1957 г. Ф. Розенблатт (F. Rosenblatt) разработал принципы организации и функционирования персептронов, предложил вариант технической реализации первого в мире нейрокомпьютера Mark.&lt;BR&gt; 1959 г. Д. Хьюбел (D, Hubel) и Т. Визель (Т. Wiesel) показали распределенный и параллельный характер хранения и обработки информации в биологических нейронных сетях.&lt;BR&gt; 1960-1968 гг. Активные исследования в области искусственных нейронных сетей, например, АДАЛИНА и МАДАЛИНА В. Уидроу (W. Widrow) (1960-1962 гг.), ассоциативные матрицы К. Штайнбуха (К. Steinbuch) (1961 г.).&lt;BR&gt; 1969 г. Публикация книги М. Минского (М. Minsky) и С. Пей-перта (S. Papert) «Персептроны», в которой доказывается принципиальная ограниченность возможностей персептронов. Угасание интереса к искусственным нейронным сетям.&lt;BR&gt; 1970-1976 гг. Активные разработки в области персептронов в СССР (основные заказчики - военные ведомства).&lt;BR&gt; Конец 1970-х гг. Возобновление интереса к искусственным нейронным сетям как следствие накопления новых знаний о деятельности мозга, а также значительного прогресса в области микроэлектроники и компьютерной техники.&lt;BR&gt; 1982-1985 гг. Дж. Хопфилд (J. Hopfield) предложил семейство оптимизирующих нейронных сетей, моделирующих ассоциативную память.&lt;BR&gt; 1985 г. Появление первых коммерческих нейрокомпьютеров, например, Mark III фирмы TRW (США).&lt;BR&gt; 1987 г. Начало широкомасштабного финансирования разработок в области ИНС и НК в США, Японии и Западной Европе (японская программа «Human Frontiers» и европейская программа «Basic Research in Adaptive Intelligence and Neurocomputing»).&lt;BR&gt; 1989 г. Разработки и исследования в области ИНС и НК ведутся практически всеми крупными электротехническими фирмами. Нейрокомпьютеры становятся одним из самых динамичных секторов рынка (за два года объем продаж вырос в пять раз). Агентством DARPA (Defence Advanced Research Projects Agency) министерства обороны США начато финансирование программы по созданию сверхбыстродействующих образцов НК для разнообразных применений.&lt;BR&gt; 1990 г. Активизация советских исследовательских организаций в области ИНС и НК (Институт кибернетики им. Глушкова в Киеве, Институт многопроцессорных вычислительных систем в Таганроге, Институт нейрокибернетики в Ростове-на-Дону). Общее число фирм, специализирующихся в области ИНС и НК, достигает трехсот.&lt;BR&gt; 1991 г. Годовой объем продаж на рынке ИНС и НК приблизился к 140 млн. долларам. Создаются центры нейрокомпьютеров в Москве, Киеве, Минске, Новосибирске, С.-Петербурге.&lt;BR&gt; 1992 г. Работы в области ИНС находятся стадии интенсивного развития. Ежегодно проводится десятки международных конференций и форумов по нейронным сетям, число специализированных периодических научных изданий по указанной тематике достигло двух десятков наименований.&lt;BR&gt; 1996 г. Число международных конференций по ИНС и НК достигло ста.&lt;BR&gt; 1997 г. Годовой объем продаж на рынке ИНС и НК превысил 2 млрд. долларов, а ежегодный прирост составил 50%.&lt;BR&gt; 2000 г. Переход на субмикронные и нанотехнологии, а также успехи молекулярной и биомолекулярной технологии приводят к принципиально новым архитектурным и технологическим решениям по созданию нейрокомпьютеров.&lt;BR&gt; &lt;BR&gt; Глубокое изучение ИНС требует знания нейрофизиологии, науки о познании, психологии, физики (статистической механики), теории управления, теории вычислений, проблем искусственного интеллекта, статистики/математики, распознавания образов, компьютерного зрения, параллельных вычислений и аппаратных средств (цифровых и аналоговых). С другой стороны, ИНС также стимулируют эти дисциплины, обеспечивая их новыми инструментами и представлениями. Этот симбиоз жизненно необходим для исследования нейронных сетей.&lt;BR&gt; &lt;BR&gt; Представим некоторые проблемы, решаемые искусственными нейронными сетями&lt;BR&gt; &lt;BR&gt; Классификация образов. Задача состоит в указании принадлежности входного образа, представленного вектором признаков, одному или нескольким предварительно определенным классам. К известным приложениям относятся распознавание букв, распознавание речи, классификация сигнала электрокардиограммы, классификация клеток крови.&lt;BR&gt; &lt;BR&gt; Кластеризация/категоризация. При решении задачи кластеризации, которая известна также как классификация образов без учителя, отсутствует обучающая выборка с метками классов. Алгоритм кластеризации основан на подобии образов и размещает близкие образы в один кластер. Известны случаи применения кластеризации для извлечения знаний, сжатия данных и исследования свойств данных.&lt;BR&gt; &lt;BR&gt; Аппроксимация функций. Предположим, что имеется обучающая выборка ((X 1, Y 2 ), (X 2, Y 2 ),..., (X N, Y N )), которая генерируется неизвестной функцией, искаженной шумом. Задача аппроксимации состоит в нахождении оценки этой функции.&lt;BR&gt; &lt;BR&gt; Предсказание/прогноз. Пусть заданы N дискретных отсчетов { y ( t 1 ), y ( t 2 ),..., y( t n )} в последовательные моменты времени t 1, t 2,..., t n. Задача состоит в предсказании значения y( t n +1 ) в момент t n +1. Прогноз имеют значительное влияние на принятие решений в бизнесе, науке и технике.&lt;BR&gt; &lt;BR&gt; Оптимизация. Многочисленные проблемы в математике, статистике, технике, науке, медицине и экономике могут рассматриваться как проблемы оптимизации. Задачей оптимизации является нахождение решения, которое удовлетворяет системе ограничений и максимизирует или минимизирует целевую функцию.&lt;BR&gt; &lt;BR&gt; Память, адресуемая по содержанию. В модели вычислений фон Неймана обращение к памяти доступно только посредством адреса, который не зависит от содержания памяти. Более того, если допущена ошибка в вычислении адреса, то может быть найдена совершенно иная информация. Память, адресуемая по содержанию, или ассоциативная память, доступна по указанию заданного содержания. Содержимое памяти может быть вызвано даже по частичному или искаженному содержанию. Ассоциативная память чрезвычайно желательна при создании перспективных информационно-вычислительных систем.&lt;BR&gt; &lt;BR&gt; Управление. Рассмотрим динамическую систему, заданную совокупностью {u(t), y(t)}, где u(t) является входным управляющим воздействием, a y(t) - выходом системы в момент времени f. В системах управления с эталонной моделью целью управления является расчет такого входного воздействия u(f), при котором система следует по желаемой траектории, диктуемой эталонной моделью.&lt;BR&gt; &lt;BR&gt; Каким образом нейронная сеть решает все эти, часто неформализуемые или трудно формализуемые задачи? Как известно, для решения таких задач традиционно применяются два основных подхода. Первый, основанный на правилах (rule-based), характерен для экспертных систем. Он базируется на описании предметной области в виде набора правил (аксиом) «если..., то...» и правил вывода. Искомое знание представляется в этом случае теоремой, истинность которой доказывается посредством построения цепочки вывода. При этом подходе, однако, необходимо заранее знать весь набор закономерностей, описывающих предметную область. При использовании другого подхода, основанного на примерах (case-based), надо лишь иметь достаточное количество примеров для настройки адаптивной системы с заданной степенью достоверности. Нейронные сети представляют собой классический пример такого подхода.&lt;BR&gt; &lt;BR&gt; ОСНОВНЫЕ ПОЛОЖЕНИЯ ТЕОРИИ ИСКУССТВЕННЫХ НЕЙРОННЫХ СЕТЕЙ&lt;BR&gt; &lt;BR&gt; Под нейронными сетями подразумеваются вычислительные структуры, которые моделируют простые биологические процессы, обычно ассоциируемые с процессами человеческого мозга. Они представляют собой распределенные и параллельные системы, способные к адаптивному обучению путем анализа положительных и отрицательных воздействий. Элементарным преобразователем в данных сетях является искусственный нейрон или просто нейрон, названный так по аналогии с биологическим прототипом.&lt;BR&gt; &lt;BR&gt; Биологический нейрон&lt;BR&gt; &lt;BR&gt; Нервная система и мозг человека состоят из нейронов, соединенных между собой нервными волокнами. Нервные волокна способны передавать электрические импульсы между нейронами. Все процессы передачи раздражений от кожи, ушей и глаз к мозгу, процессы мышления и управления действиями - все это реализовано в живом организме как передача электрических импульсов между нейронами.&lt;BR&gt; &lt;BR&gt; Нейрон (нервная клетка) является особой биологической клеткой, которая обрабатывает информацию (рис. 1.). Он состоит из тела (cell body), или сомы (soma), и отростков нервных волокон двух типов - дендритов (dendrites), по которым принимаются импульсы, и единственного аксона (ахо n ), по которому нейрон может передавать импульс. Тело нейрона включает ядро (nucleus), которое содержит информацию о наследственных свойствах, и плазму, обладающую молекулярными средствами для производства необходимых нейрону материалов. Нейрон получает сигналы (импульсы) от аксонов других нейронов через дендриты (приемники) и передает сигналы, сгенерированные телом клетки, вдоль своего аксона (передатчика), который в конце разветвляется на волокна (strands). На окончаниях этих волокон находятся специальные образования - синапсы (synapses), которые влияют на величину импульсов. &lt;BR&gt;&lt;BR&gt;&lt;IMG src=&quot;https://chaboss.my1.ru/l6_clip_image001.gif&quot;&gt;&lt;BR&gt;&lt;BR&gt;Рис. 1. Взаимосвязь биологических нейронов &lt;BR&gt;&lt;BR&gt; Синапс является элементарной структурой и функциональным узлом между двумя нейронами (волокно аксона одного нейрона и дендрит другого). Когда импульс достигает синаптического окончания, высвобождаются химические вещества, называемые нейротрансмиттерами. Нейротрансмиттеры диффундируют через синаптическую щель, возбуждая или затормаживая, в зависимости от типа синапса, способность нейрона-приемника генерировать электрические импульсы. Результативность передачи импульса синапсом может настраиваться проходящими через него сигналами так, что синапсы могут обучаться в зависимости от активности процессов, в которых они участвуют. Эта зависимость от предыстории действует как память, которая, возможно, ответственна за память человека. Важно отметить, что веса синапсов могут изменяться со временем, а значит, меняется и поведение соответствующих нейронов.&lt;BR&gt; &lt;BR&gt; Кора головного мозга человека содержит около 1011 нейронов и представляет собой протяженную поверхность толщиной от 2 до 3 мм с площадью около 2200 см 2. Каждый нейрон связан с 103-104 другими нейронами. В целом мозг человека содержит приблизительно от 1014 до 1015 взаимосвязей.&lt;BR&gt; &lt;BR&gt; Нейроны взаимодействуют короткими сериями импульсов продолжительностью, как правило, несколько миллисекунд. Сообщение передается посредством частотно-импульсной модуляции. Частота может изменяться от нескольких единиц до сотен герц, что в миллион раз медленнее, чем быстродействующие переключательные электронные схемы. Тем не менее сложные задачи распознавания человек решает за несколько сотен миллисекунд. Эти решения контролируются сетью нейронов, которые имеют скорость выполнения операций всего несколько миллисекунд. Это означает, что вычисления требуют не более 100 последовательных стадий. Другими словами, для таких сложных задач мозг «запускает» параллельные программы, содержащие около 100 шагов. Рассуждая аналогичным образом, можно обнаружить, что количество информации, посылаемое от одного нейрона другому, должно быть очень малым (несколько бит). Отсюда следует, что основная информация не передается непосредственно, а захватывается и распределяется в связях между нейронами. &lt;BR&gt;&lt;BR&gt;Структура и свойства искусственного нейрона&lt;BR&gt; &lt;BR&gt; Нейрон является составной частью нейронной сети. На рис. 2 показана его структура. Он состоит из элементов трех типов: умножителей (синапсов), сумматора и нелинейного преобразователя. Синапсы осуществляют связь между нейронами, умножают входной сигнал на число, характеризующее силу связи, (вес синапса). Сумматор выполняет сложение сигналов, поступающих по синаптическим связям от других нейронов, и внешних входных сигналов. Нелинейный преобразователь реализует нелинейную функцию одного аргумента - выхода сумматора. Эта функция называется функцией активации или передаточной функцией нейрона. &lt;BR&gt;&lt;BR&gt;&lt;BR&gt;&lt;IMG src=&quot;https://chaboss.my1.ru/l6_clip_image002.gif&quot;&gt;&lt;BR&gt;Рис. 2. Структура искусственного нейрона &lt;BR&gt;&lt;BR&gt; Нейрон в целом реализует скалярную функцию векторного аргумента. Математическая модель нейрона: &lt;BR&gt; &lt;BR&gt; &lt;IMG src=&quot;https://chaboss.my1.ru/l6_clip_image003.gif&quot;&gt;          (1.1)&lt;BR&gt;&lt;BR&gt;y = f(s)                               (1.2)&lt;BR&gt;&lt;BR&gt;где w i, - вес (weight) синапса, i = 1...n; b - значение смещения (bias); s - результат суммирования (sum); x, - компонент входного вектора (входной сигнал), x i = 1... n ; у - выходной сигнал нейрона; n - число входов нейрона; f - нелинейное преобразование (функция активации).&lt;BR&gt; &lt;BR&gt; В общем случае входной сигнал, весовые коэффициенты и смещение могут принимать действительные значения, а во многих практических задачах - лишь некоторые фиксированные значения. Выход (у) определяется видом функции активации и может быть как действительным, так и целым.&lt;BR&gt; &lt;BR&gt; Синаптические связи с положительными весами называют возбуждающими, с отрицательными весами - тормозящими.&lt;BR&gt; &lt;BR&gt; Описанный вычислительный элемент можно считать упрощенной математической моделью биологических нейронов. Чтобы подчеркнуть различие нейронов биологических и искусственных, вторые иногда называют нейроноподобными элементами или формальными нейронами.&lt;BR&gt; &lt;BR&gt; На входной сигнал (s) нелинейный преобразователь отвечает выходным сигналом f(s), который представляет собой выход у нейрона. Примеры активационных функций представлены в табл. 1. и на рис. 3. &lt;BR&gt;&lt;BR&gt;Таблица 1&lt;BR&gt;&lt;BR&gt;&lt;IMG src=&quot;https://chaboss.my1.ru/l6_clip_image004.gif&quot;&gt;&lt;BR&gt;&lt;BR&gt;&lt;IMG src=&quot;https://chaboss.my1.ru/l6_clip_image005.gif&quot;&gt;&lt;BR&gt;&lt;BR&gt;Рис. 3. Примеры активационных функций&lt;BR&gt;а - функция единичного скачка; б - линейный порог (гистерезис); &lt;BR&gt;в - сигмоид (логистическая функция); г - сигмоид (гиперболический тангенс) &lt;BR&gt;&lt;BR&gt;Одной из наиболее распространенных является нелинейная функция активации с насыщением, так называемая логистическая функция или сигмоид (функция S-образного вида): &lt;BR&gt;f (s) = 1 / (1+e -as) &lt;BR&gt;(1.3)&lt;BR&gt;&lt;BR&gt;При уменьшении а сигмоид становится более пологим, в пределе при а = 0 вырождаясь в горизонтальную линию на уровне 0,5, при увеличении а сигмоид приближается к виду функции единичного скачка с порогом 0. Из выражения для сигмоида очевидно, что выходное значение нейрона лежит в диапазоне (0, 1). Одно из ценных свойств сигмоидальной функции - простое выражение для ее производной, применение которой будет рассмотрено в дальнейшем: &lt;BR&gt;f &apos; (s) = a f(s)[ 1 -f(s)] &lt;BR&gt;(1.4)&lt;BR&gt;&lt;BR&gt;Следует отметить, что сигмоидальная функция дифференцируема на всей оси абсцисс, что используется в некоторых алгоритмах обучения. Кроме того, она обладает свойством усиливать слабые сигналы лучше, чем большие, и предотвращает насыщение от больших сигналов, так как они соответствуют областям аргументов, где сигмоид имеет пологий наклон. &lt;BR&gt;&lt;BR&gt;Классификация нейронных сетей и их свойства&lt;BR&gt; &lt;BR&gt; Нейронная сеть представляет собой совокупность нейроподобных элементов, определенным образом соединенных друг с другом и с внешней средой с помощью связей, определяемых весовыми коэффициентами. В зависимости от функций, выполняемых нейронами в сети, можно выделить три их типа:&lt;BR&gt; &lt;BR&gt; • входные нейроны, на которые подается вектор, кодирующий входное воздействие или образ внешней среды; в них обычно не осуществляется вычислительных процедур, а информация передается с входа на выход путем изменения их активации;&lt;BR&gt; • выходные нейроны, выходные значения которых представляют выходы нейронной сети; преобразования в них осуществляются по выражениям (1.1) и (1.2);&lt;BR&gt; • промежуточные нейроны, составляющие основу нейронных сетей, преобразования в которых выполняются также по выражениям (1.1) и (1.2).&lt;BR&gt; &lt;BR&gt; В большинстве нейронных моделей тип нейрона связан с его расположением в сети. Если нейрон имеет только выходные связи, то это входной нейрон, если наоборот - выходной нейрон. Однако возможен серий, когда выход топологически внутреннего нейрона рассматривается как Часть выхода сети. В процессе функционирования сети осуществляется преобразование входного вектора в выходной, некоторая переработка информации. Конкретный вид выполняемого сетью преобразования данных обусловливается не только характеристиками нейроподобных элементов, но и особенностями ее архитектуры, а именно топологией межнейронных связей, выбором определенных подмножеств нейроподобных элементов для ввода и вывода информации, способами обучения сети, наличием или отсутствием конкуренции между нейронами, направлением и способами управления и синхронизации передачи информации между нейронами.&lt;BR&gt; &lt;BR&gt; С точки зрения топологии можно выделить три основных типа нейронных сетей:&lt;BR&gt; &lt;BR&gt; • полносвязные (рис. 4, а);&lt;BR&gt; • многослойные или слоистые (рис. 4, б);&lt;BR&gt; • слабосвязные (с локальными связями) (рис. 4, в). &lt;BR&gt;&lt;BR&gt;&lt;IMG src=&quot;https://chaboss.my1.ru/l6_clip_image006.gif&quot;&gt;&lt;BR&gt;&lt;BR&gt;Рис. 4. Архитектуры нейронных сетей:&lt;BR&gt;а - полносвязная сеть, б - многослойная сеть с последовательными связями, в - слабосвязные сети &lt;BR&gt;&lt;BR&gt;В полносвязных нейронных сетях каждый нейрон передает свой выходной сигнал остальным нейронам, в том числе и самому себе. Все входные сигналы подаются всем нейронам. Выходными сигналами сети могут быть все или некоторые выходные сигналы нейронов после нескольких тактов функционирования сети.&lt;BR&gt; &lt;BR&gt; В многослойных нейронных сетях нейроны объединяются в слои. Слой содержит совокупность нейронов с едиными входными сигналами. Число нейронов в слое может быть любым и не зависит от количества нейронов в других слоях. В общем случае сеть состоит из Q слоев, пронумерованных слева направо. Внешние входные сигналы подаются на входы нейронов входного слоя (его часто нумеруют как нулевой), а выходами сети являются выходные сигналы последнего слоя. Кроме входного и выходного слоев в многослойной нейронной сети есть один или несколько скрытых слоев. Связи от выходов нейронов некоторого слоя q к входам нейронов следующего слоя ( q +1) называются последовательными.&lt;BR&gt; &lt;BR&gt; В свою очередь, среди многослойных нейронных сетей выделяют следующие типы.&lt;BR&gt; &lt;BR&gt; 1) Монотонные. Это частный случай слоистых сетей с дополнительными условиями на связи и нейроны. Каждый слой кроме последнего (выходного) разбит на два блока: возбуждающий и тормозящий. Связи между блоками тоже разделяются на тормозящие и возбуждающие. Если от нейронов блока А к нейронам блока В ведут только возбуждающие связи, то это означает, что любой выходной сигнал блока является монотонной неубывающей функцией любого выходного сигнала блока А. Если же эти связи только тормозящие, то любой выходной сигнал блока В является невозрастающей функцией любого выходного сигнала блока А. Для нейронов монотонных сетей необходима монотонная зависимость выходного сигнала нейрона от параметров входных сигналов.&lt;BR&gt; &lt;BR&gt; 2) Сети без обратных связей. В таких сетях нейроны входного слоя получают входные сигналы, преобразуют их и передают нейронам первого скрытого слоя, и так далее вплоть до выходного, который выдает сигналы для интерпретатора и пользователя. Если не оговорено противное, то каждый выходной сигнал q-гo слоя подастся на вход всех нейронов (q+1)-гo слоя; однако возможен вариант соединения q-гo слоя с произвольным (q+p)-м слоем.&lt;BR&gt; &lt;BR&gt; Среди многослойных сетей без обратных связей различают полносвязанные (выход каждого нейрона q-гo слоя связан с входом каждого нейрона (q+1)-гo слоя) и частично полносвязанные. Классическим вариантом слоистых сетей являются полносвязанные сети прямого распространения (рис. 5). &lt;BR&gt;&lt;BR&gt;&lt;IMG src=&quot;https://chaboss.my1.ru/l6_clip_image007.gif&quot;&gt;&lt;BR&gt;&lt;BR&gt;Рис. 5. Многослойная (двухслойная) сеть прямого распространения &lt;BR&gt;&lt;BR&gt; 3) Сети с обратными связями. В сетях с обратными связями информация с последующих слоев передается на предыдущие. Среди них, в свою очередь, выделяют следующие:&lt;BR&gt; &lt;BR&gt; • слоисто-циклические, отличающиеся тем, что слои замкнуты в кольцо: последний слой передает свои выходные сигналы первому; все слои равноправны и могут как получать входные сигналы, так и выдавать выходные;&lt;BR&gt; • слоисто-полносвязанные состоят из слоев, каждый из которых представляет собой полносвязную сеть, а сигналы передаются как от слоя к слою, так и внутри слоя; в каждом слое цикл работы распадается на три части: прием сигналов с предыдущего слоя, обмен сигналами внутри слоя, выработка выходного сигнала и передача к последующему слою;&lt;BR&gt; • полносвязанно-слоистые, по своей структуре аналогичные слоисто-полносвязанным, но функционирующим по-другому: в них не разделяются фазы обмена внутри слоя и передачи следующему, на каждом такте нейроны всех слоев принимают сигналы от нейронов как своего слоя, так и последующих.&lt;BR&gt; &lt;BR&gt; В качестве примера сетей с обратными связями на рис. 6 представлены частично-рекуррентные сети Элмана и Жордана. &lt;BR&gt;&lt;BR&gt;&lt;BR&gt;&lt;IMG src=&quot;https://chaboss.my1.ru/l6_clip_image008.gif&quot;&gt;&lt;BR&gt;Рис. 6. Частично-рекуррентные сети: а - Элмана, б – Жордана &lt;BR&gt;&lt;BR&gt; В слабосвязных нейронных сетях нейроны располагаются в узлах прямоугольной или гексагональной решетки. Каждый нейрон связан с четырьмя (окрестность фон Неймана), шестью (окрестность Голея) или восемью (окрестность Мура) своими ближайшими соседями.&lt;BR&gt; &lt;BR&gt; Известные нейронные сети можно разделить по типам структур нейронов на гомогенные (однородные) и гетерогенные. Гомогенные сети состоят из нейронов одного типа с единой функцией активации, а в гетерогенную сеть входят нейроны с различными функциями активации.&lt;BR&gt; &lt;BR&gt; Существуют бинарные и аналоговые сети. Первые из них оперируют только двоичными сигналами, и выход каждого нейрона может принимать значение либо логического ноля (заторможенное состояние) либо логической единицы (возбужденное состояние).&lt;BR&gt; &lt;BR&gt; Еще одна классификация делит нейронные сети на синхронные и асинхронные. В первом случае в каждый момент времени лишь один нейрон меняет свое состояние, во втором - состояние меняется сразу у целой группы нейронов, как правило, у всего слоя. Алгоритмически ход времени в нейронных сетях задается итерационным выполнением однотипных действий над нейронами. Далее будут рассматриваться только синхронные сети.&lt;BR&gt; &lt;BR&gt; Сети можно классифицировать также по числу слоев. Теоретически число слоев и число нейронов в каждом слое может быть произвольным, однако фактически оно ограничено ресурсами компьютера или специализированных микросхем, на которых обычно реализуется нейронная сеть. Чем сложнее сеть, тем более сложные задачи она может решать.&lt;BR&gt; &lt;BR&gt; Выбор структуры нейронной сети осуществляется в соответствии с особенностями и сложностью задачи. Для решения отдельных типов задач уже существуют оптимальные конфигурации, описанные в приложении. Если же задача не может быть сведена ни к одному из известных типов, приходится решать сложную проблему синтеза новой конфигурации. При этом необходимо руководствоваться следующими основными правилами:&lt;BR&gt; &lt;BR&gt; • возможности сети возрастают с увеличением числа нейронов сети, плотности связей между ними и числом слоев;&lt;BR&gt; • введение обратных связей наряду с увеличением возможностей сети поднимает вопрос о динамической устойчивости сети;&lt;BR&gt; • сложность алгоритмов функционирования сети, введение нескольких типов синапсов способствует усилению мощности нейронной сети.&lt;BR&gt; &lt;BR&gt; Вопрос о необходимых и достаточных свойствах сети для решения задач того или иного рода представляет собой целое направление нейрокомпьютерной науки. Так как проблема синтеза нейронной сети сильно зависит от решаемой задачи, дать общие подробные рекомендации затруднительно. В большинстве случаев оптимальный вариант получается на основе интуитивного подбора, хотя в литературе приведены доказательства того, что для любого алгоритма существует нейронная сеть, которая может его реализовать. Остановимся на этом подробнее.&lt;BR&gt; &lt;BR&gt; Многие задачи распознавания образов (зрительных, речевых), выполнения функциональных преобразований при обработке сигналов, управления, прогнозирования, идентификации сложных систем, сводятся к следующей математической постановке. Необходимо построить такое отображение X -&amp;gt; У, чтобы на каждый возможный входной сигнал X формировался правильный выходной сигнал У. Отображение задается конечным набором пар (&lt;вход&amp;gt;, &lt;известный выход&amp;gt;). Число этих пар (обучающих примеров) существенно меньше общего числа возможных сочетаний значений входных и выходных сигналов. Совокупность всех обучающих примеров носит название обучающей выборки.&lt;BR&gt; &lt;BR&gt; В задачах распознавания образов X - некоторое представление образа (изображение, вектор), У - номер класса, к которому принадлежит входной образ.&lt;BR&gt; &lt;BR&gt; В задачах управления X - набор контролируемых параметров управляемого объекта, У - код, определяющий управляющее воздействие, соответствующее текущим значениям контролируемых параметров.&lt;BR&gt; &lt;BR&gt; В задачах прогнозирования в качестве входных сигналов используются временные ряды, представляющие значения контролируемых переменных на некотором интервале времени. Выходной сигнал - множество переменных, которое является подмножеством переменных входного сигнала.&lt;BR&gt; &lt;BR&gt; При идентификации X и У представляют входные и выходные сигналы системы соответственно.&lt;BR&gt; &lt;BR&gt; Вообще говоря, большая часть прикладных задач может быть сведена к реализации некоторого сложного функционального многомерного преобразования.&lt;BR&gt; В результате отображения X -&amp;gt; У необходимо обеспечить формирование правильных выходных сигналов в соответствии:&lt;BR&gt; • со всеми примерами обучающей выборки;&lt;BR&gt; • со всеми возможными входными сигналами, которые не вошли в обучающую выборку.&lt;BR&gt; &lt;BR&gt; Второе требование в значительной степени усложняет задачу формирования обучающей выборки. В общем виде эта задача в настоящее время еще не решена, однако во всех известных случаях может быть найдено частное решение. &lt;BR&gt;&lt;BR&gt;Теорема Колмогорова-Арнольда&lt;BR&gt; &lt;BR&gt; Построить многомерное отображение X -&amp;gt; У - это значит представить его с помощью математических операций над не более, чем двумя переменными.&lt;BR&gt; &lt;BR&gt; Проблема представления функций многих переменных в виде суперпозиции функций меньшего числа переменных восходит 13-й проблеме Гильберта. В результате многолетней научной полемики между А. Н. Колмогоровым и В. И. Арнольдом был получен ряд важных теоретических результатов, опровергающих тезис непредставимости функции многих переменных функциями меньшего числа переменных:&lt;BR&gt; &lt;BR&gt; • теорема о возможности представления непрерывных функций нескольких, переменных суперпозициями непрерывных функций меньшего числа переменных (1956 г.);&lt;BR&gt; • теорема о представлении любой непрерывной функции трех переменных в виде суммы функций не более двух переменных (1957 г.);&lt;BR&gt; • теорема о представлении непрерывных функций нескольких переменных в виде суперпозиций непрерывных функций одного переменного и сложения (1957 г.).&lt;BR&gt; &lt;BR&gt; Работа Хехт-Нильсена&lt;BR&gt; &lt;BR&gt; Теорема о представлении непрерывных функций нескольких переменных в виде суперпозиций непрерывных функций одного переменного и сложения в 1987 году была переложена Хехт-Нильсеном для нейронных сетей.&lt;BR&gt; &lt;BR&gt; Теорема Хехт-Нильсена доказывает представимость функции многих переменных достаточно общего вида с помощью двухслойной нейронной сети с прямыми полными связями с n нейронами входного слоя, (2 n +1) нейронами скрытого слоя с заранее известными ограниченными функциями активации (например, сиг-моидальными) и m нейронами выходного слоя с неизвестными функциями активации.&lt;BR&gt; &lt;BR&gt; Теорема, таким образом, в неконструктивной форме доказывает решаемость задачи представления функции произвольного вида на нейронной сети и указывает для каждой задачи минимальные числа нейронов сети, необходимых для ее решения.&lt;BR&gt; &lt;BR&gt; Следствия из теоремы Колмогорова-Арнольда - Хехт-Нильсена&lt;BR&gt; &lt;BR&gt; Следствие 1. Из теоремы Хехт-Нильсена следует представимость любой многомерной функции нескольких переменных с помощью нейронной сети фиксированной размерности. Неизвестными остаются следующие характеристики функций активации нейронов:&lt;BR&gt; &lt;BR&gt; • ограничения области значений (координаты асимптот) сигмоидальных функций активации нейронов скрытого слоя;&lt;BR&gt; • наклон сигмоидальных функций активации;&lt;BR&gt; • вид функций активации нейронов выходного слоя.&lt;BR&gt; &lt;BR&gt; Про функции активации нейронов выходного слоя из теоремы Хехт-Нильсена известно только то, что они представляют собой нелинейные функции общего вида. В одной из работ, продолжающих развитие теории, связанной с рассматриваемой теоремой, доказывается, что функции активации нейронов выходного слоя должны быть монотонно возрастающими. Это утверждение в некоторой степени сужает класс функций, которые могут использоваться при реализации отображения с помощью двухслойной нейронной сети.&lt;BR&gt; &lt;BR&gt; На практике требования теоремы Хехт-Нильсена к функциям активации удовлетворяются следующим образом. В нейронных сетях как для первого (скрытого), так и для второго (выходного) слоя используют сигмоидальные передаточные функции с настраиваемыми параметрами. То есть в процессе обучения индивидуально для каждого нейрона задается максимальное и минимальное значение, а также наклон сигмоидальной функции.&lt;BR&gt; &lt;BR&gt; Следствие 2. Для любого множества пар ( X k, Y k ) (где Y k - скаляр) существует двухслойная однородная (с одинаковыми функциями активации) нейронная сеть первого порядка с последовательными связями и с конечным числом нейронов, которая выполняет отображение X -&amp;gt; У, выдавая на каждый входной сигнал X k правильный выходной сигнал У k. Нейроны в такой двухслойной нейронной сети должны иметь сигмоидальные передаточные функции.&lt;BR&gt; &lt;BR&gt; К сожалению, эта теорема не конструктивна. В ней не заложена методика определения числа нейронов в сети для некоторой коифетной обучающей выборки.&lt;BR&gt; &lt;BR&gt; Для многих задач единичной размерности выходного сигнала недостаточно. Необходимо иметь возможность строить с помощью нейронных сетей функции X -&amp;gt; У, где У имеет произвольную размерность. Следующее утверждение является теоретической основой для построения таких функций на базе однородных нейронных сетей.&lt;BR&gt; &lt;BR&gt; Утверждение. Для любого множества пар входных-выходных векторов произвольной размерности {(X k, У k ), k = 1... N } существует однородная двухслойная нейронная сеть с последовательными связями, с сигмоидальными передаточными функциями и с конечным числом нейронов, которая для каждого входного вектора X k формирует соответствующий ему выходной вектор Y k.&lt;BR&gt; &lt;BR&gt; Таким образом, для представления многомерных функций многих переменных может быть использована однородная двухслойная нейронная сеть с сигмоидальными передаточными функциями.&lt;BR&gt; &lt;BR&gt; Для оценки числа нейронов с скрытых слоях однородных нейронных сетей можно воспользоваться формулой для оценки необходимого числа синаптических весов L w в многослойной сети с сигмоидальными передаточными функциями:&lt;BR&gt; &lt;BR&gt;&lt;BR&gt;mN / (1+log 2N) &lt; L w &lt; m (1+ N/m)(n+m+1)+m (1.5) &lt;BR&gt;&lt;BR&gt;где n - размерность входного сигнала, m - размерность выходили сигнала, N - число элементов обучающей выборки.&lt;BR&gt; &lt;BR&gt; Оценив необходимое число весов, можно рассчитать число нейронов в скрытых слоях. Например, для двухслойной сети это число составит: &lt;BR&gt;&lt;BR&gt;L = L w/ (n+m) &lt;BR&gt;&lt;BR&gt;Известны и другие формулы для оценки, например: &lt;BR&gt;&lt;BR&gt;2 (n + L + m) &lt; N &lt; 10 (n + L+ m),&lt;BR&gt;N/10 - n - m &lt; L &lt; N/2 - n – m &lt;BR&gt;&lt;BR&gt;Точно так же можно рассчитать число нейронов в сетях с большим числом слоев.&lt;BR&gt; &lt;BR&gt; Иногда целесообразно использовать сети с большим числом слоев. Такие многослойные нейронные сети могут иметь меньшие размерности матриц синаптических весов нейронов одного слоя, чем двухслойные сети, реализующие то же самое отображение. Однако строгой методики построения таких сетей пока нет.&lt;BR&gt; &lt;BR&gt; Аналогичная ситуация складывается и с многослойными нейронными сетями, в которых помимо последовательных связей используются и прямые (связи от слоя с номером q к слою с номером (q+p), где р &amp;gt; 1). Нет строгой теории, которая показывала бы возможность и целесообразность построения таких сетей.&lt;BR&gt; &lt;BR&gt; Наибольшие проблемы возникают при использовании сетей циклического функционирования. К этой группе относятся многослойные сети с обратными связями (от слоя с номером q к слою с номером (q+p), где р &lt; 0), а также полносвязные сети. Для успешного функционирования таких сетей необходимо соблюдение условий динамической устойчивости, иначе сеть может не сойтись к правильному решению, либо, достигнув на некоторой итерации правильного значения выходного сигнала, после нескольких итераций уйти от этого значения. Проблема динамической устойчивости подробно исследована, пожалуй, лишь для одной модели из рассматриваемой группы - нейронной сети Хопфилда.&lt;BR&gt; &lt;BR&gt; Отсутствие строгой теории для перечисленных моделей нейронных сетей не препятствует исследованию возможностей их применения.&lt;BR&gt; &lt;BR&gt; Отметим, что отечественному читателю приведенные результаты известны в более фрагментарной форме - в виде так называемой теоремы о полноте.&lt;BR&gt; &lt;BR&gt; Теорема о полноте. Любая непрерывная функция на замкнутом ограниченном множестве может быть равномерно приближена функциями, вычисляемыми нейронными сетями, если функция активации нейрона дважды непрерывно дифференцируема и непрерывна.&lt;BR&gt; &lt;BR&gt; Таким образом, нейронные сети являются универсальными структурами, позволяющими реализовать любой вычислительный алгоритм. &lt;BR&gt;&lt;BR&gt;&lt;BR&gt; &lt;BR&gt;</content:encoded>
			<link>https://chaboss.my1.ru/news/teorija_iskusstvennykh_nejronnykh_setej_osnovnye_polozhenija/2010-02-06-63</link>
			<dc:creator>chaboss</dc:creator>
			<guid>https://chaboss.my1.ru/news/teorija_iskusstvennykh_nejronnykh_setej_osnovnye_polozhenija/2010-02-06-63</guid>
			<pubDate>Sat, 06 Feb 2010 10:00:55 GMT</pubDate>
		</item>
		<item>
			<title>Нейронная сеть</title>
			<description>&lt;font class=&quot;fBig&quot; color=&quot;#ff0000&quot;&gt;&lt;a name=&quot;begin&quot;&gt;&lt;b&gt;1. Как работает биологическая нейронная 
сеть&lt;/b&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Нервная система и мозг человека состоят из нейронов, 
соединенных между собой нервными волокнами. Нервные волокна способны передавать 
электрические импульсы между нейронами. Все процессы передачи раздражений от 
нашей кожи, ушей и глаз к мозгу, процессы мышления и управления действиями - все 
это реализовано в живом организме как передача электрических импульсов между 
нейронами. Рассмотрим строение биологического нейрона. Каждый нейрон имеет 
отростки нервных волокон двух типов - дендриты, по которым принимаются импульсы, 
и единственный аксон, по которому нейрон может передавать импульс. Аксон 
контактирует с дендритами других нейронов через специальные образования - 
синапсы, которые влияют на силу импульса.&lt;br&gt;&lt;br&gt;&lt;img ilo-full-src=&quot;http://chaboss.my1.ru/img_tut-bioneuro.gif&quot; alt=&quot;tut-bioneuro&quot; src=&quot;https://chaboss.my1.ru/img_tut-bioneuro.gif&quot; align=&quot;&quot; border=&quot;0&quot;&gt;&lt;br&gt;&lt;/font&gt;&lt;p&gt;&lt;font class=...</description>
			<content:encoded>&lt;font class=&quot;fBig&quot; color=&quot;#ff0000&quot;&gt;&lt;a name=&quot;begin&quot;&gt;&lt;b&gt;1. Как работает биологическая нейронная 
сеть&lt;/b&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Нервная система и мозг человека состоят из нейронов, 
соединенных между собой нервными волокнами. Нервные волокна способны передавать 
электрические импульсы между нейронами. Все процессы передачи раздражений от 
нашей кожи, ушей и глаз к мозгу, процессы мышления и управления действиями - все 
это реализовано в живом организме как передача электрических импульсов между 
нейронами. Рассмотрим строение биологического нейрона. Каждый нейрон имеет 
отростки нервных волокон двух типов - дендриты, по которым принимаются импульсы, 
и единственный аксон, по которому нейрон может передавать импульс. Аксон 
контактирует с дендритами других нейронов через специальные образования - 
синапсы, которые влияют на силу импульса.&lt;br&gt;&lt;br&gt;&lt;img ilo-full-src=&quot;http://chaboss.my1.ru/img_tut-bioneuro.gif&quot; alt=&quot;tut-bioneuro&quot; src=&quot;https://chaboss.my1.ru/img_tut-bioneuro.gif&quot; align=&quot;&quot; border=&quot;0&quot;&gt;&lt;br&gt;&lt;/font&gt;&lt;p&gt;&lt;font class=&quot;fBig&quot; color=&quot;#ff0000&quot;&gt;Можно считать, что при прохождении синапса сила импульса меняется в 
определенное число раз, которое мы будем называть весом синапса. Импульсы, 
поступившие к нейрону одновременно по нескольким дендритам, суммируются. Если 
суммарный импульс превышает некоторый порог, нейрон возбуждается, формирует 
собственный импульс и передает его далее по аксону. Важно отметить, что веса 
синапсов могут изменяться со временем, а значит, меняется и поведение 
соответствующего нейрона.&lt;/font&gt;&lt;/p&gt;
&lt;p&gt;&lt;font class=&quot;fBig&quot; color=&quot;#ff0000&quot;&gt;Нетрудно построить математическую модель описанного процесса. &lt;br&gt;&lt;/font&gt;&lt;/p&gt;&lt;p&gt;&lt;font class=&quot;fBig&quot; color=&quot;#ff0000&quot;&gt;&lt;img ilo-full-src=&quot;http://chaboss.my1.ru/img_tut-neuron.gif&quot; alt=&quot;neuron&quot; src=&quot;https://chaboss.my1.ru/img_tut-neuron.gif&quot; align=&quot;&quot; border=&quot;0&quot;&gt;&lt;/font&gt;&lt;/p&gt;&lt;p&gt;&lt;br&gt;&lt;/p&gt;&lt;p&gt;&lt;font class=&quot;fBig&quot; color=&quot;#ff0000&quot;&gt;На рисунке изображена модель нейрона с тремя входами (дендритами), причем 
синапсы этих дендритов имеют веса w&lt;sub&gt;1&lt;/sub&gt;, w&lt;sub&gt;2&lt;/sub&gt;, w&lt;sub&gt;3&lt;/sub&gt;. 
Пусть к синапсам поступают импульсы силы x&lt;sub&gt;1&lt;/sub&gt;, x&lt;sub&gt;2&lt;/sub&gt;, 
x&lt;sub&gt;3&lt;/sub&gt; соответственно, тогда после прохождения синапсов и дендритов к 
нейрону поступают импульсы w&lt;sub&gt;1&lt;/sub&gt;x&lt;sub&gt;1&lt;/sub&gt;, 
w&lt;sub&gt;2&lt;/sub&gt;x&lt;sub&gt;2&lt;/sub&gt;, w&lt;sub&gt;3&lt;/sub&gt;x&lt;sub&gt;3&lt;/sub&gt;. Нейрон преобразует 
полученный суммарный импульс x=w&lt;sub&gt;1&lt;/sub&gt;x&lt;sub&gt;1&lt;/sub&gt;+ 
w&lt;sub&gt;2&lt;/sub&gt;x&lt;sub&gt;2&lt;/sub&gt;+ w&lt;sub&gt;3&lt;/sub&gt;x&lt;sub&gt;3&lt;/sub&gt; в соответствии с 
некоторой передаточной функцией f(x). Сила выходного импульса равна 
y=f(x)=f(w&lt;sub&gt;1&lt;/sub&gt;x&lt;sub&gt;1&lt;/sub&gt;+ w&lt;sub&gt;2&lt;/sub&gt;x&lt;sub&gt;2&lt;/sub&gt;+ 
w&lt;sub&gt;3&lt;/sub&gt;x&lt;sub&gt;3&lt;/sub&gt;). &lt;br&gt;Таким образом, нейрон полностью описывается 
своими весами w&lt;sub&gt;k&lt;/sub&gt; и передаточной функцией f(x). Получив набор чисел 
(вектор) x&lt;sub&gt;k&lt;/sub&gt; в качестве входов, нейрон выдает некоторое число y на 
выходе. &lt;br&gt;&lt;/font&gt;&lt;/p&gt;&lt;p&gt;&lt;font class=&quot;fBig&quot; color=&quot;#ff0000&quot;&gt;&lt;a name=&quot;whatneuro&quot;&gt;&lt;b&gt;2. Что такое искусственная нейронная 
сеть&lt;/b&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;b&gt;Как работает нейронная сеть&lt;/b&gt; 
&lt;/font&gt;&lt;/p&gt;&lt;p&gt;&lt;font class=&quot;fBig&quot; color=&quot;#ff0000&quot;&gt;&lt;em&gt;Искусственная нейронная сеть&lt;/em&gt; (&lt;em&gt;ИНС, нейронная сеть&lt;/em&gt;) - это 
набор нейронов, соединенных между собой. Как правило, передаточные функции всех 
нейронов в нейронной сети фиксированы, а веса являются параметрами нейронной 
сети и могут изменяться. Некоторые входы нейронов помечены как внешние входы 
нейронной сети, а некоторые выходы - как внешние выходы нейронной сети. Подавая 
любые числа на входы нейронной сети, мы получаем какой-то набор чисел на выходах 
нейронной сети. Таким образом, работа нейронной сети состоит в преобразовании 
входного вектора в выходной вектор, причем это преобразование задается весами 
нейронной сети. &lt;br&gt;&amp;nbsp; &amp;nbsp; Практически любую задачу можно свести к задаче, решаемой 
нейронной сетью. В этой таблице показано, каким образом следует сформулировать в 
терминах нейронной сети задачу распознавания рукописных букв. &lt;/font&gt;&lt;/p&gt;&lt;font class=&quot;fBig&quot; color=&quot;#ff0000&quot;&gt;&lt;b&gt;Задача 
распознавания рукописных букв &lt;/b&gt;&lt;br&gt;&lt;br&gt;&lt;b&gt;Дано:&lt;/b&gt; растровое черно-белое изображение буквы размером 
30x30 пикселов&lt;br&gt;&lt;b&gt;Надо:&lt;/b&gt; определить, какая это 
буква (в алфавите 33 буквы) &lt;br&gt;&lt;br&gt;&lt;b&gt;Формулировка для нейронной 
сети:&lt;/b&gt;&lt;br&gt;&lt;br&gt;&lt;b&gt;Дано:&lt;/b&gt; входной вектор из 900 
двоичных символов (900=30x30)&lt;br&gt;&lt;b&gt;Надо:&lt;/b&gt; 
построить нейронную сеть с 900 входами и 33 выходами, которые помечены буквами. 
Если на входе нейронной сети изображение буквы &quot;А&quot;, то максимальное значение 
выходного сигнала достигается на выходе &quot;А&quot;. Аналогично нейронная сеть работает 
для всех 33 букв. &lt;br&gt;&lt;br&gt;
&lt;/font&gt;&lt;p&gt;&lt;font class=&quot;fBig&quot; color=&quot;#ff0000&quot;&gt;&amp;nbsp; &amp;nbsp; Поясним, зачем требуется выбирать выход нейронной сети с максимальным 
уровнем сигнала. Дело в том, что уровень выходного сигнала, как правило, может 
принимать любые значения из какого-то отрезка. Однако, в данной задаче нас 
интересует не аналоговый ответ, а всего лишь номер категории (номер буквы в 
алфавите). Поэтому используется следующий подход - каждой категории 
сопоставляется свой выход, а ответом нейронной сети считается та категория, на 
чьем выходе уровень сигнала максимален. В определенном смысле уровень сигнала на 
выходе &quot;А&quot; - это достоверность того, что на вход нейронной сети была подана 
рукописная буква &quot;A&quot;. Задачи, в которых нужно отнести входные данные к одной из 
известных категорий, называются &lt;em&gt;задачами классификации&lt;/em&gt;. Изложенный 
подход - стандартный способ классификации с помощью нейронных сетей. 
&lt;br&gt;&lt;br&gt;&lt;b&gt;Как постороить нейронную сеть&lt;/b&gt;&lt;br&gt;&lt;br&gt;Теперь, когда стало ясно, 
что именно мы хотим построить, мы можем переходить к вопросу &quot;как строить такую 
нейронную сеть&quot;. Этот вопрос решается в два этапа: 
&lt;/font&gt;&lt;/p&gt;&lt;ol&gt;&lt;font class=&quot;fBig&quot; color=&quot;#ff0000&quot;&gt;&lt;li&gt;Выбор типа (архитектуры) нейронной сети. 
&lt;/li&gt;&lt;li&gt;Подбор весов (обучение) нейронной сети. &lt;/li&gt;&lt;/font&gt;&lt;/ol&gt;&lt;font class=&quot;fBig&quot; color=&quot;#ff0000&quot;&gt;На первом этапе следует 
выбрать следующее: 
&lt;/font&gt;&lt;ul type=&quot;disc&quot;&gt;&lt;font class=&quot;fBig&quot; color=&quot;#ff0000&quot;&gt;&lt;li&gt;какие нейроны мы хотим использовать (число входов, передаточные функции); 
&lt;/li&gt;&lt;li&gt;каким образом следует соединить их между собой; 
&lt;/li&gt;&lt;li&gt;что взять в качестве входов и выходов нейронной сети. &lt;/li&gt;&lt;/font&gt;&lt;/ul&gt;
&lt;p&gt;&lt;font class=&quot;fBig&quot; color=&quot;#ff0000&quot;&gt;Эта задача на первый взгляд кажется необозримой, но, к счастью, нам 
необязательно придумывать нейронную сеть &quot;с нуля&quot; - существует несколько 
десятков различных нейросетевых архитектур, причем эффективность многих из них 
доказана математически. Наиболее популярные и изученные архитектуры - это 
многослойный перцептрон, нейронная сеть с общей регрессией, нейронные сети 
Кохонена и другие. Про все эти архитектуры скоро можно будет прочитать в 
специальном разделе этого учебника.&lt;/font&gt;&lt;/p&gt;&lt;font class=&quot;fBig&quot; color=&quot;#ff0000&quot;&gt;&lt;br&gt;
&lt;/font&gt;&lt;p&gt;&lt;font class=&quot;fBig&quot; color=&quot;#ff0000&quot;&gt;На втором этапе нам следует &quot;обучить&quot; выбранную нейронную сеть, то есть 
подобрать такие значения ее весов, чтобы она работала нужным образом. 
Необученная нейронная сеть подобна ребенку - ее можно научить чему угодно. В 
используемых на практике нейронных сетях количество весов может составлять 
несколько десятков тысяч, поэтому обучение - действительно сложный процесс. Для 
многих архитектур разработаны специальные алгоритмы обучения, которые позволяют 
настроить веса нейронной сети определенным образом. Наиболее популярный из этих 
алгоритмов - метод обратного распространения ошибки (Error Back Propagation), 
используемый, например, для обучения перцептрона. &lt;br&gt;&lt;br&gt;&lt;b&gt;Обучение нейронных 
сетей&lt;/b&gt;&lt;br&gt;&lt;br&gt;
&lt;/font&gt;&lt;/p&gt;&lt;p&gt;&lt;font class=&quot;fBig&quot; color=&quot;#ff0000&quot;&gt;&amp;nbsp; &amp;nbsp; Обучить нейронную сеть - значит, сообщить ей, чего мы от нее добиваемся. 
Этот процесс очень похож на обучение ребенка алфавиту. Показав ребенку 
изображение буквы &quot;А&quot;, мы спрашиваем его: &quot;Какая это буква?&quot; Если ответ неверен, 
мы сообщаем ребенку тот ответ, который мы хотели бы от него получить: &quot;Это буква 
А&quot;. Ребенок запоминает этот пример вместе с верным ответом, то есть в его памяти 
происходят некоторые изменения в нужном направлении. Мы будем повторять процесс 
предъявления букв снова и снова до тех пор, когда все 33 буквы будут твердо 
запомнены. Такой процесс называют &quot;обучение с учителем&quot;. &lt;br&gt;&lt;/font&gt;&lt;/p&gt;&lt;p&gt;&lt;br&gt;&lt;/p&gt;&lt;p&gt;&lt;font class=&quot;fBig&quot; color=&quot;#ff0000&quot;&gt;&lt;img ilo-full-src=&quot;http://chaboss.my1.ru/img_tut-training.gif&quot; alt=&quot;&quot; src=&quot;https://chaboss.my1.ru/img_tut-training.gif&quot; align=&quot;&quot; border=&quot;0&quot;&gt;&lt;/font&gt;&lt;/p&gt;&lt;p&gt;&lt;font class=&quot;fBig&quot; color=&quot;#ff0000&quot;&gt;При обучении нейронной сети мы действуем совершенно аналогично. У нас имеется 
некоторая база данных, содержащая примеры (набор рукописных изображений букв). 
Предъявляя изображение буквы &quot;А&quot; на вход нейронной сети, мы получаем от нее 
некоторый ответ, не обязательно верный. Нам известен и верный (желаемый) ответ - 
в данном случае нам хотелось бы, чтобы на выходе нейронной сети с меткой &quot;А&quot; 
уровень сигнала был максимален. Обычно в качестве желаемого выхода в задаче 
классификации берут набор (1, 0, 0, ...), где 1 стоит на выходе с меткой &quot;А&quot;, а 
0 - на всех остальных выходах. Вычисляя разность между желаемым ответом и 
реальным ответом сети, мы получаем 33 числа - &lt;em&gt;вектор ошибки&lt;/em&gt;. Алгоритм 
обратного распространения ошибки - это набор формул, который позволяет по 
вектору ошибки вычислить требуемые поправки для весов нейронной сети. Одну и ту 
же букву (а также различные изображения одной и той же буквы) мы можем 
предъявлять нейронной сети много раз. В этом смысле обучение скорее напоминает 
повторение упражнений в спорте - тренировку.&lt;/font&gt;&lt;/p&gt;
&lt;p&gt;&lt;font class=&quot;fBig&quot; color=&quot;#ff0000&quot;&gt;Оказывается, что после многократного предъявления примеров веса нейронной 
сети стабилизируются, причем нейронная сеть дает правильные ответы на все (или 
почти все) примеры из базы данных. В таком случае говорят, что &quot;нейронная сеть 
выучила все примеры&quot;, &quot;нейронная сеть обучена&quot;, или &quot;нейронная сеть 
натренирована&quot;. В программных реализациях можно видеть, что в процессе обучения 
величина ошибки (сумма квадратов ошибок по всем выходам) постепенно уменьшается. 
Когда величина ошибки достигает нуля или приемлемого малого уровня, тренировку 
останавливают, а полученную нейронную сеть считают натренированной и готовой к 
применению на новых данных. &lt;br&gt;&amp;nbsp; &amp;nbsp; Важно отметить, что вся информация, которую 
нейронная сеть имеет о задаче, содержится в наборе примеров. Поэтому качество 
обучения нейронной сети напрямую зависит от количества примеров в обучающей 
выборке, а также от того, насколько полно эти примеры описывают данную задачу. 
Так, например, бессмысленно использовать нейронную сеть для предсказания 
финансового кризиса, если в обучающей выборке кризисов не представлено. 
Считается, что для полноценной тренировки нейронной сети требуется хотя бы 
несколько десятков (а лучше сотен) примеров. &lt;br&gt;Повторим еще раз, что обучение 
нейронных сетей - сложный и наукоемкий процесс. Алгоритмы обучения нейронных 
сетей имеют различные параметры и настройки, для управления которыми требуется 
понимание их влияния. &lt;/font&gt;&lt;/p&gt;&lt;font class=&quot;fBig&quot; color=&quot;#ff0000&quot;&gt;&lt;br&gt;&lt;b&gt;Применение нейронной сети&lt;/b&gt;&lt;/font&gt;&lt;p&gt;&lt;img ilo-full-src=&quot;http://chaboss.my1.ru/img_tut-netuse.gif&quot; alt=&quot;t-netus&quot; src=&quot;https://chaboss.my1.ru/img_tut-netuse.gif&quot; align=&quot;&quot; border=&quot;0&quot;&gt;&lt;br&gt;&lt;/p&gt;&lt;p&gt;&lt;font class=&quot;fBig&quot; color=&quot;#ff0000&quot;&gt;После того, как нейронная сеть обучена, мы можем применять ее для решения 
полезных задач. Важнейшая особенность человеческого мозга состоит в том, что, 
однажды обучившись определенному процессу, он может верно действовать и в тех 
ситуациях, в которых он не бывал в процессе обучения. Например, мы можем читать 
почти любой почерк, даже если видим его первый раз в жизни. Так же и нейронная 
сеть, грамотным образом обученная, может с большой вероятностью правильно 
реагировать на новые, не предъявленные ей ранее данные. Например, мы можем 
нарисовать букву &quot;А&quot; другим почерком, а затем предложить нашей нейронной сети 
классифицировать новое изображение. Веса обученной нейронной сети хранят 
достаточно много информации о сходстве и различиях букв, поэтому можно 
рассчитывать на правильный ответ и для нового варианта изображения. 
&lt;/font&gt;&lt;/p&gt;&lt;font class=&quot;fBig&quot; color=&quot;#ff0000&quot;&gt;&lt;b&gt;Примеры готовых нейронных сетей&lt;/b&gt;&lt;br&gt;&lt;br&gt;
&lt;/font&gt;&lt;p&gt;&lt;font class=&quot;fBig&quot; color=&quot;#ff0000&quot;&gt;Описанные выше процессы обучения и применения нейронных сетей можно увидеть в 
действии прямо &lt;a href=&quot;nejronnaja_set/download.htm#dnwsgdemo&quot;&gt;сейчас&lt;/a&gt;. Фирмой Ward Systems 
Group подготовлено несколько простых программ, которые написаны на основе 
библиотеки NeuroWindows. Каждая из программ позволяет пользователю 
самостоятельно задать набор примеров и обучить на этом наборе определенную 
нейронную сеть. Затем можно предлагать этой нейронной сети новые примеры и 
наблюдать ее работу. &lt;/font&gt;&lt;/p&gt;&lt;font class=&quot;fBig&quot; color=&quot;#ff0000&quot;&gt;&lt;br&gt;&lt;a name=&quot;apply&quot;&gt;&lt;b&gt;3. 
Области применения нейронных сетей&lt;/b&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;b&gt;Нейросетевая 
классификация&lt;/b&gt;&lt;br&gt;&lt;br&gt;
&lt;/font&gt;&lt;font class=&quot;fBig&quot; color=&quot;#ff0000&quot;&gt;Отметим, что задачи классификации (типа распознавания букв) очень плохо 
алгоритмизуются. Если в случае распознавания букв верный ответ очевиден для нас 
заранее, то в более сложных практических задачах обученная нейронная сеть 
выступает как эксперт, обладающий большим опытом и способный дать ответ на 
трудный вопрос&lt;br&gt;&lt;/font&gt;&lt;font&gt;&lt;font class=&quot;fBig&quot; color=&quot;#ff0000&quot;&gt;Примером такой задачи служит медицинская диагностика, где нейронная сеть 
может учитывать большое количество числовых параметров (энцефалограмма, 
давление, вес и т.д.). Конечно, &quot;мнение&quot; нейронной сети в этом случае нельзя 
считать окончательным. &lt;br&gt;&lt;/font&gt;&lt;/font&gt;&lt;p&gt;&lt;font class=&quot;fBig&quot; color=&quot;#ff0000&quot;&gt;Кластеризация - это разбиение набора примеров на несколько компактных 
областей (кластеров), причем число кластеров заранее неизвестно. Кластеризация 
позволяет представить неоднородные данные в более наглядном виде и использовать 
далее для исследования каждого кластера различные методы. Например, таким 
образом можно быстро выявить фальсифицированные страховые случаи или 
недобросовестные предприятия. &lt;/font&gt;&lt;/p&gt;&lt;font class=&quot;fBig&quot; color=&quot;#ff0000&quot;&gt;&lt;b&gt;Применение нейронных сетей в задачах 
прогнозирования&lt;/b&gt;&lt;br&gt;
&lt;/font&gt;&lt;p&gt;&lt;font class=&quot;fBig&quot; color=&quot;#ff0000&quot;&gt;Задачи прогнозирования особенно важны для практики, в частности, для 
финансовых приложений, поэтому поясним способы применения нейронных сетей в этой 
области более подробно. &lt;/font&gt;&lt;/p&gt;
&lt;p&gt;&lt;font class=&quot;fBig&quot; color=&quot;#ff0000&quot;&gt;&amp;nbsp; &amp;nbsp; Рассмотрим практическую задачу, ответ в которой неочевиден - задачу 
прогнозирования курса акций на 1 день вперед. &lt;br&gt;&amp;nbsp; &amp;nbsp; Пусть у нас имеется база 
данных, содержащая значения курса за последние 300 дней. Простейший вариант в 
данном случае - попытаться построить прогноз завтрашней цены на основе курсов за 
последние несколько дней. Понятно, что прогнозирующая нейронная сеть должна 
иметь всего один выход и столько входов, сколько предыдущих значений мы хотим 
использовать для прогноза - например, 4 последних значения. Составить обучающий 
пример очень просто - входными значениями нейронной сети будут курсы за 4 
последовательных дня, а желаемым выходом нейронной сети - известный нам курс в 
следующий день за этими четырьмя. &lt;/font&gt;&lt;/p&gt;&lt;font class=&quot;fBig&quot; color=&quot;#ff0000&quot;&gt;&lt;br&gt;
&lt;/font&gt;&lt;p&gt;&lt;font class=&quot;fBig&quot; color=&quot;#ff0000&quot;&gt;&lt;b&gt;&amp;nbsp; &amp;nbsp; &lt;/b&gt;Если нейронная сеть совместима с какой-либо системой обработки 
электронных таблиц (например, Excel), то подготовка обучающей выборки состоит из 
следующих операций: &lt;/font&gt;&lt;/p&gt;
&lt;ol&gt;&lt;font class=&quot;fBig&quot; color=&quot;#ff0000&quot;&gt;&lt;li&gt;Скопировать столбец данных значений котировок в 4 соседних столбца. 
&lt;/li&gt;&lt;li&gt;Сдвинуть второй столбец на 1 ячейку вверх, третий столбец - на 2 ячейки 
вверх и т.д. &lt;/li&gt;&lt;/font&gt;&lt;/ol&gt;&lt;img ilo-full-src=&quot;http://chaboss.my1.ru/img_tut-podgotov.gif&quot; alt=&quot;&quot; src=&quot;https://chaboss.my1.ru/img_tut-podgotov.gif&quot; align=&quot;&quot; border=&quot;0&quot;&gt;&lt;br&gt;&lt;br&gt;&lt;font class=&quot;fBig&quot; color=&quot;#ff0000&quot;&gt; Смысл этой подготовки легко увидеть на рисунке - теперь каждая строка 
таблицы представляет собой обучающий пример, где первые 4 числа - входные 
значения нейронные сети, а пятое число - желаемое значение выхода нейронной 
сети. Исключение составляют последние 4 строки, где данных недостаточно - эти 
строки не учитываются при тренировке нейронной сети. Заметим, что в четвертой 
снизу строке заданы все 4 входных значения, но неизвестно значение выхода 
нейронной сети. Именно к этой строке мы применим обученную нейронную сеть и 
получим прогноз на следующий день. &lt;/font&gt;
&lt;p&gt;&lt;font class=&quot;fBig&quot; color=&quot;#ff0000&quot;&gt;Как видно из этого примера, объем обучающей выборки зависит от выбранного 
нами количества входов нейронной сети. Если сделать 299 входов, то такая 
нейронная сеть потенциально могла бы строить лучший прогноз, чем нейронная сеть 
с 4 входами, однако в этом случае мы имеем всего 1 обучающий пример, и обучение 
бессмысленно. При выборе числа входов нейронной сети следует учитывать это, 
выбирая разумный компромисс между глубиной предсказания (число входов нейронной 
сети) и качеством обучения нейронной сети (объем тренировочного набора). &lt;/font&gt;&lt;/p&gt;&lt;br&gt;&lt;font class=&quot;fBig&quot; color=&quot;#ff0000&quot;&gt;&lt;br&gt;&lt;/font&gt;</content:encoded>
			<link>https://chaboss.my1.ru/news/nejronnaja_set/2009-10-24-62</link>
			<dc:creator>chaboss</dc:creator>
			<guid>https://chaboss.my1.ru/news/nejronnaja_set/2009-10-24-62</guid>
			<pubDate>Sat, 24 Oct 2009 19:08:49 GMT</pubDate>
		</item>
		<item>
			<title>Кладбище древнеримских кораблей</title>
			<description>Группа археологов под руководством Тимми Гамбина (Timmy Gambin) из «Aurora Trust» с помощью гидролокатора обнаружила «кладбище» из пяти римских кораблей, потерпевших кораблекрушение рядом с одним итальянским островком, сообщает Reuters. &lt;br /&gt; &lt;!--IMG1--&gt;&lt;img style=&quot;margin:0;padding:0;border:0;&quot; src=&quot;http://chaboss.my1.ru/_nw/0/47409.jpg&quot; align=&quot;&quot; /&gt;&lt;!--IMG1--&gt; &lt;br /&gt; Специалисты считают, что корабли могут принадлежать ко времени от I века до н.э. до V века н.э. Они лежат на дне Средиземного моря на глубине более 100 метров в одном из самых глубоких мест. Корабли перевозили вино из Италии в обмен на рыбный соус из Испании и северной Африки, а также таинственный груз, состоящий из металлических слитков из Италии. Возможно, слитки предполагалось использовать при сооружении статуй или оружия. Корабли пролежали на дне моря нетронутыми сотни лет, однако, по словам Гамбина, увлечение людей глубоководным дайвингом составляет угрозу для исторических ценностей находящихся на дне Средиземного мо...</description>
			<content:encoded>Группа археологов под руководством Тимми Гамбина (Timmy Gambin) из «Aurora Trust» с помощью гидролокатора обнаружила «кладбище» из пяти римских кораблей, потерпевших кораблекрушение рядом с одним итальянским островком, сообщает Reuters. &lt;br /&gt; &lt;!--IMG1--&gt;&lt;img style=&quot;margin:0;padding:0;border:0;&quot; src=&quot;http://chaboss.my1.ru/_nw/0/47409.jpg&quot; align=&quot;&quot; /&gt;&lt;!--IMG1--&gt; &lt;br /&gt; Специалисты считают, что корабли могут принадлежать ко времени от I века до н.э. до V века н.э. Они лежат на дне Средиземного моря на глубине более 100 метров в одном из самых глубоких мест. Корабли перевозили вино из Италии в обмен на рыбный соус из Испании и северной Африки, а также таинственный груз, состоящий из металлических слитков из Италии. Возможно, слитки предполагалось использовать при сооружении статуй или оружия. Корабли пролежали на дне моря нетронутыми сотни лет, однако, по словам Гамбина, увлечение людей глубоководным дайвингом составляет угрозу для исторических ценностей находящихся на дне Средиземного моря. &lt;p&gt; Напомним, что на днях компания Odyssey Marine Exploration, США, занимающаяся поиском затонувших кораблей и подъемом их сокровищ и обнаружившая в океане останки потерпевшего кораблекрушение испанского галеона с сокровищами, заявила протест против первоначального решения суда, согласно которому 17 тонн сокровищ должны быть переданы Испании. Затонувший 200 лет назад галеон перевозил тысячи серебряных момент и прочих ценностей, общая стоимость которых достигает $500 млн.</content:encoded>
			<link>https://chaboss.my1.ru/news/2009-07-25-61</link>
			<dc:creator>Маг</dc:creator>
			<guid>https://chaboss.my1.ru/news/2009-07-25-61</guid>
			<pubDate>Sat, 25 Jul 2009 13:58:29 GMT</pubDate>
		</item>
		<item>
			<title>Клюв спасает от жары</title>
			<description>С помощью своего огромного клюва туканы весьма эффективно спасаются от тропической жары. Использовать его как зонт не получается, зато большая площадь вместе с интенсивным кровотоком позволяют «сбрасывать» в 4 раза больше тепла, чем со всей остальной поверхности тела. &lt;br /&gt; &lt;!--IMG1--&gt;&lt;img style=&quot;margin:0;padding:0;border:0;&quot; src=&quot;http://chaboss.my1.ru/_nw/0/28988.jpg&quot; align=&quot;&quot; /&gt;&lt;!--IMG1--&gt; &lt;p&gt; Избыток тепла – серьезная проблема не только для инженеров, но и для млекопитающих и птиц. Звери специально для этой цели «изобрели» потовые железы, испаряющие влагу, а вместе с ней и лишнее тепло. Птицам, температура которых нередко достигает 42 градусов, сложнее: плотное оперение мешает теплоотдаче, так что приходится обходиться исключительно воздушными мешками и легкими, нагревая выдыхаемый воздух. &lt;p&gt; Туканы в этом плане обошли всех своих сородичей: как показал Гленн Таттерсал из Университета Брока в Канаде, свой 20-сантиметровый клюв, насквозь пронизанный сосудами, они используют в качест...</description>
			<content:encoded>С помощью своего огромного клюва туканы весьма эффективно спасаются от тропической жары. Использовать его как зонт не получается, зато большая площадь вместе с интенсивным кровотоком позволяют «сбрасывать» в 4 раза больше тепла, чем со всей остальной поверхности тела. &lt;br /&gt; &lt;!--IMG1--&gt;&lt;img style=&quot;margin:0;padding:0;border:0;&quot; src=&quot;http://chaboss.my1.ru/_nw/0/28988.jpg&quot; align=&quot;&quot; /&gt;&lt;!--IMG1--&gt; &lt;p&gt; Избыток тепла – серьезная проблема не только для инженеров, но и для млекопитающих и птиц. Звери специально для этой цели «изобрели» потовые железы, испаряющие влагу, а вместе с ней и лишнее тепло. Птицам, температура которых нередко достигает 42 градусов, сложнее: плотное оперение мешает теплоотдаче, так что приходится обходиться исключительно воздушными мешками и легкими, нагревая выдыхаемый воздух. &lt;p&gt; Туканы в этом плане обошли всех своих сородичей: как показал Гленн Таттерсал из Университета Брока в Канаде, свой 20-сантиметровый клюв, насквозь пронизанный сосудами, они используют в качестве радиатора. &lt;br /&gt; Оранжево-черный клюв перцеяда токо (Ramphastos toco) в своё время заставил задуматься даже Дарвина. Автор «Происхождения видов» предполагал, что столь непропорциональный клюв нужен туканам для полового отбора. Позже прибавились и другие версии: очистка фруктов, разорение гнезд, защита своей территории и, естественно, демонстрация своей силы и авторитета сородичам и хищникам. &lt;p&gt; Впрочем, все эти задачи с легкостью решаются и менее внушительными «носами» – вряд ли за миллионы лет эволюции природа не нашла бы способа сэкономить. &lt;p&gt; Авторы публикации в Science решили проверить другую гипотезу, родившуюся после сравнения тукана со слоном: &lt;br /&gt; У последнего самые большие среди всех зверей уши используются именно для терморегуляции. &lt;br /&gt; лючевое условие в обоих случаях – наличие многочисленных сосудов, способных менять свой просвет, а следовательно, и объем протекающей крови. В результате тепло от мышц, печени и кишечника гораздо быстрее и эффективнее передается в окружающую среду или, наоборот, распределяется между остальными органами, сохраняясь «в теле». &lt;p&gt; Остальные структуры этому способствуют: костная основа клюва напоминает самый обычный радиатор – тонкие костные перегородки и большое количество полостей, заполненных воздухом. По этой же причине клюв туканов гораздо легче, чем кажется, что не мешает ему «сбрасывать» в среднем от 30% до 60% всего тепла тела. &lt;p&gt; Птенцам не так повезло – в отличие от взрослых сородичей они не способны ни сокращать свои потери, ни быстро регулировать температуру. Возможно, это связано с тем, что они долгое время развиваются в защищенном от солнца и ветра гнезде под тщательным присмотром своих родителей, и переохлаждение им не грозит. &lt;p&gt; Взрослые же особи способны менять теплоотдачу клюва с 5% до 100%, а в соответствующих условиях (температура окружающей среды и скорость ветра) – до 400%. &lt;p&gt; Тепловизорная камера (см. видео) подтвердила предположения ученых – если «за бортом» было не больше 25 oC, то кончик клюва практически не нагревался, стоило же на пару градусов согреть воздух, как кровоток мгновенно усиливался по всей площади. &lt;p&gt; Эта же съемка объяснила и то, зачем туканы прячут свой клюв под крыло: тем самым они экономят энергию, поддерживая необходимую всем гомойотермным животным постоянную температуру тела. Но даже спрятанный, он продолжает работать, меняя кровоток в зависимости от температуры, даже если птица не просыпается. &lt;p&gt; Противоположный случай сну – полёт, когда теплопродукция в 10-12 раз превосходит таковую в покое. В такие моменты, весьма редкие для туканов, обдувающий поток ветра способствует ускоренной теплоотдаче. &lt;p&gt; Теоретически, тот же механизм, правда, в меньшей степени, должен работать и для других птиц, что Таттерсал и его группа планируют проверить при ближайшей возможности.</content:encoded>
			<link>https://chaboss.my1.ru/news/2009-07-25-60</link>
			<dc:creator>Маг</dc:creator>
			<guid>https://chaboss.my1.ru/news/2009-07-25-60</guid>
			<pubDate>Sat, 25 Jul 2009 13:57:55 GMT</pubDate>
		</item>
		<item>
			<title>Радикальный способ защиты данных в Сети</title>
			<description>&lt;!--IMG1--&gt;&lt;img style=&quot;margin:0;padding:0;border:0;&quot; src=&quot;http://chaboss.my1.ru/_nw/0/32202.jpg&quot; align=&quot;&quot; /&gt;&lt;!--IMG1--&gt; &lt;br /&gt; [/b]&lt;span style=&quot;font-size:16pt;&quot;&gt;Уничтожение электронных данных никогда не было простой задачей. Элементарная операция удаления лишь делает их невидимыми для внешних интерфейсов, в то время как Уничтожение электронных данных никогда не было простой задачей. Элементарная операция удаления лишь делает их невидимыми для внешних интерфейсов, в то время как можно вручную стереть нежелательную информацию, но что делать, если файл находится где-то во Всемирной паутине? Решение этой проблемы на днях нашли эксперты из Вашингтонского университета.&lt;/span&gt; &lt;p&gt; Когда пользователь оставляет какую-нибудь информацию в электронной почте или социальных сетях, найти ее физическое местоположение не представляется возможным. Но это вовсе не означает, что судьба таких данных уже не зависит от их первоначального владельца. &lt;p&gt; Лаборатория компьютерных наук Вашингтонского университет...</description>
			<content:encoded>&lt;!--IMG1--&gt;&lt;img style=&quot;margin:0;padding:0;border:0;&quot; src=&quot;http://chaboss.my1.ru/_nw/0/32202.jpg&quot; align=&quot;&quot; /&gt;&lt;!--IMG1--&gt; &lt;br /&gt; [/b]&lt;span style=&quot;font-size:16pt;&quot;&gt;Уничтожение электронных данных никогда не было простой задачей. Элементарная операция удаления лишь делает их невидимыми для внешних интерфейсов, в то время как Уничтожение электронных данных никогда не было простой задачей. Элементарная операция удаления лишь делает их невидимыми для внешних интерфейсов, в то время как можно вручную стереть нежелательную информацию, но что делать, если файл находится где-то во Всемирной паутине? Решение этой проблемы на днях нашли эксперты из Вашингтонского университета.&lt;/span&gt; &lt;p&gt; Когда пользователь оставляет какую-нибудь информацию в электронной почте или социальных сетях, найти ее физическое местоположение не представляется возможным. Но это вовсе не означает, что судьба таких данных уже не зависит от их первоначального владельца. &lt;p&gt; Лаборатория компьютерных наук Вашингтонского университета представила новую технологию криптографии Vanish, которая позволит защитить информацию от посторонних глаз достаточно радикальным способом. &lt;br /&gt; &lt;!--IMG2--&gt;&lt;img style=&quot;margin:0;padding:0;border:0;&quot; src=&quot;http://chaboss.my1.ru/_nw/0/17230.jpg&quot; align=&quot;&quot; /&gt;&lt;!--IMG2--&gt; &lt;br /&gt; При помощи специального программного обеспечения можно легко закодировать любой фрагмент текста в файле или электронном письме так, что он просуществует строго ограниченный период времени. &lt;p&gt; Читайте также &quot;Секретный документ уничтожится сам&quot; &lt;p&gt; Для защиты используется сложный криптографический ключ, которые зашифровывает послание. Обычно, чтобы пользователь на противоположном конце смог прочитать такое послание, ему нужен второй образец кода шифрования, который передается открытым способом. &lt;p&gt; Это делает защитную систему неустойчивой – ключ можно перехватить и, таким образом, получить полный доступ к корреспонденции. &lt;p&gt; Vanish использует другой оригинальный алгоритм хранения криптографического ключа. Программа разбивает его на несколько маленьких файлов и помещает в различные онлайн-хранилища. Адресат корреспонденции получает лишь ссылки на эти фрагменты.[b] &lt;p&gt; Ключевая особенность сетевых архивов заключается в ограниченном времени хранения файлов, причем в самых популярных из них этот срок задается пользователем вручную. Таким образом, спустя заданный промежуток времени ключ удаляется, и отправленное послание становится не пригодным для чтения. &lt;p&gt; Да, конечно, оно может быть взломано методом подбора криптографического ключа, но эта процедура может занять от нескольких дней до нескольких недель, а, значит, только очень ценные документы заслуживают подобного «внимания». &lt;p&gt; Система еще требует доработки, но уже сейчас эксперты оценили простоту реализации с использованием общедоступных сервисов. В планах создателей Vanish – преодоление главной проблемы криптозащиты, когда ключи для файлов более 100 мегабайт занимают не меньший цифровой объем. &lt;p&gt; Распределение криптокода по сети и использование технологий p2p (прямое распределенное соединение «точка-точка») помогут, по мнению американских компьютерщиков, найти решение и этой задачи.</content:encoded>
			<link>https://chaboss.my1.ru/news/2009-07-25-59</link>
			<dc:creator>Маг</dc:creator>
			<guid>https://chaboss.my1.ru/news/2009-07-25-59</guid>
			<pubDate>Sat, 25 Jul 2009 13:54:59 GMT</pubDate>
		</item>
	</channel>
</rss>