Нейрокриптография
Материал из MachineLearning.
(категория) |
|||
(4 промежуточные версии не показаны) | |||
Строка 1: | Строка 1: | ||
{{Задание|Лошкарёв Сергей|Константин Воронцов|8 января 2010}} | {{Задание|Лошкарёв Сергей|Константин Воронцов|8 января 2010}} | ||
- | '''Нейрокриптография''' это раздел криптографии, изучающий применение стохастических алгоритмов, в частности, нейронных сетей, для шифрования и криптоанализа. | + | '''Нейрокриптография''' это раздел [[криптография|криптографии]], изучающий применение стохастических алгоритмов, в частности, нейронных сетей, для шифрования и криптоанализа. |
== Определение == | == Определение == | ||
- | В криптоанализе используется способность нейронных сетей исследовать пространство решений. Также имеется возможность создавать новые типы атак на существующие алгоритмы шифрования, основанные на том, что любая функции может быть представлена нейронной сетью. Взломав алгоритм, можно найти решение, по крайней мере, теоретически. | + | В криптоанализе используется способность [[нейронная сеть|нейронных сетей]] исследовать пространство решений. Также имеется возможность создавать новые типы атак на существующие алгоритмы шифрования, основанные на том, что любая функции может быть представлена [[нейронная сеть|нейронной сетью]]. Взломав алгоритм, можно найти решение, по крайней мере, теоретически. |
- | При этом используются такие свойства нейронных сетей, как взаимное обучение, самообучение, и стохастическое поведение, а также низкая чувствительность к шуму, неточностям(искажения данных, весовых коэффициентов, ошибки в программе). Они позволяют решать проблемы криптографии с открытым ключом, распределения ключей, хеширования и генерации псевдослучайных чисел. | + | При этом используются такие свойства [[нейронная сеть|нейронных сетей]], как взаимное обучение, самообучение, и стохастическое поведение, а также низкая чувствительность к шуму, неточностям(искажения данных, весовых коэффициентов, ошибки в программе). Они позволяют решать проблемы [[криптография|криптографии]] с открытым ключом, распределения ключей, хеширования и генерации псевдослучайных чисел. |
Идеи нейрокриптографии впервые были озвучены Себастьяном Дорленсом (Sebastien Dourlens) в 1995 году, спустя 30 лет после определения основ нейронных сетей. | Идеи нейрокриптографии впервые были озвучены Себастьяном Дорленсом (Sebastien Dourlens) в 1995 году, спустя 30 лет после определения основ нейронных сетей. | ||
Строка 13: | Строка 13: | ||
Область относительно нова, и пока не имеет практических применений. Однако уже сейчас она может использоваться там, где есть непрерывная генерация ключей. | Область относительно нова, и пока не имеет практических применений. Однако уже сейчас она может использоваться там, где есть непрерывная генерация ключей. | ||
- | В 1995 году Себастьян Дорленс применил нейрокриптоанализ, чтобы научить нейронные сети инвертировать S-перестановки в DES. В ходе эксперимента было найдено 50 % битов ключа, то есть ключ целиком может быть найден за короткое время. Аппаратная реализация состоит из множества (64К) простых микроконтроллеров, расположенных на СБИС. | + | В 1995 году Себастьян Дорленс применил нейрокриптоанализ, чтобы научить нейронные сети инвертировать S-перестановки (S-Box --- табличные перестановки) в [[DES]]. В ходе эксперимента было найдено 50 % битов ключа, то есть ключ целиком может быть найден за короткое время. Аппаратная реализация состоит из множества (64К) простых микроконтроллеров, расположенных на [[СБИС]]. |
- | Другой пример — протокол шифрования с открытым ключом Халил Шибаба (Khalil Shihab), в котором процесс дешифрации основан на многоуровневой нейронной сети, обучающейся по алгоритму обратного распространения (back propagation). В то же время процесс шифрования и создания закрытого ключа использует обычную двоичную алгебру. Преимущество этого метода в малых затратах времени и памяти. Недостаток — в алгоритме обратного распространения: на больших массивах входных данных нейронная сети обучается очень долго. Поэтому данный протокол имеет лишь теоретическое значение. | + | Другой пример — протокол шифрования с открытым ключом Халил Шибаба (Khalil Shihab), в котором процесс дешифрации основан на многоуровневой нейронной сети, обучающейся по [[алгоритм обратного распространения|алгоритму обратного распространения]] (back propagation). В то же время процесс шифрования и создания закрытого ключа использует обычную двоичную алгебру. Преимущество этого метода в малых затратах времени и памяти. Недостаток — в алгоритме обратного распространения: на больших массивах входных данных нейронная сети обучается очень долго. Поэтому данный протокол имеет лишь теоретическое значение. |
== Протокол обмена ключами == | == Протокол обмена ключами == | ||
- | Для обмена ключами между двумя абонентами наиболее часто используется алгоритм Диффи-Хеллмана. Его более безопасная замена основана на синхронизации двух древовидных машин четности (TPM, tree parity machines). Синхронизация этих машин похожа на синхронизацию двух хаотических осцилляторов в теории хаотических связей (chaos communications). | + | Для обмена ключами между двумя абонентами наиболее часто используется [[алгоритм Диффи-Хеллмана]]. Его более безопасная замена основана на синхронизации двух древовидных машин четности (TPM, tree parity machines --- см. далее). Синхронизация этих машин похожа на синхронизацию двух хаотических осцилляторов в [[теория хаотических связей|теории хаотических связей]] (chaos communications). |
[[Image:TreeParityMachine.jpg|thumb|right|350px|TPM]] | [[Image:TreeParityMachine.jpg|thumb|right|350px|TPM]] | ||
Строка 26: | Строка 26: | ||
TPM - это особый вид многоуровневой нейронной сети прямого распространения. | TPM - это особый вид многоуровневой нейронной сети прямого распространения. | ||
- | Она состоит из одного выходного нейрона, K скрытых нейронов и K*N входных нейронов. Входные нейроны принимают двоичные значения: | + | Она состоит из одного выходного [[нейрон|нейрона]], K скрытых нейронов и K*N входных нейронов. Входные нейроны принимают двоичные значения: |
:<tex>x_{ij} \in \left\{ -1,+1 \right\}</tex> | :<tex>x_{ij} \in \left\{ -1,+1 \right\}</tex> | ||
Веса между входными и скрытыми нейронами принимают значения: | Веса между входными и скрытыми нейронами принимают значения: | ||
Строка 32: | Строка 32: | ||
Значение каждого скрытого нейрона есть сумма произведений входного значения и весового коэффициента: | Значение каждого скрытого нейрона есть сумма произведений входного значения и весового коэффициента: | ||
:<tex>\sigma_i=sgn(\sum_{j=1}^{N}w_{ij}x_{ij})</tex> | :<tex>\sigma_i=sgn(\sum_{j=1}^{N}w_{ij}x_{ij})</tex> | ||
- | :<tex>sgn (x) = \ | + | :<tex> sgn(x) = \left { 1,\ x > 0, \\-1,\ x\leq 0\right.</tex> |
- | + | ||
- | 1 | + | |
- | Значение выходного нейрона есть произведение всех скрытых нейронов: | + | Значение выходного нейрона есть произведение всех скрытых нейронов: |
:<tex>\tau=\prod_{i=1}^{K}\sigma_i</tex> | :<tex>\tau=\prod_{i=1}^{K}\sigma_i</tex> | ||
Выходное значение также двоичное. | Выходное значение также двоичное. | ||
Строка 45: | Строка 43: | ||
# Задаём случайные значения весовых коэффициентов | # Задаём случайные значения весовых коэффициентов | ||
# Выполняем следующие шаги, пока не наступит синхронизация | # Выполняем следующие шаги, пока не наступит синхронизация | ||
- | # | + | # Генерируем случайный входной вектор X |
- | # | + | # Вычисляем значения скрытых нейронов |
- | # | + | # Вычисляем значение выходного нейрона |
- | # | + | # Сравниваем выходы двух TPM: |
- | # | + | # Выходы разные: переход к п.3 |
- | # | + | # Выходы одинаковые: применяем выбранное правило к весовым коэффициентам |
- | После полной синхронизации (веса w<sub>ij</sub> обоих TPM одинаковые), А и Б могут использовать веса в качестве ключа. | + | После полной синхронизации (веса w<sub>ij</sub> обоих TPM одинаковые), А и Б могут использовать веса в качестве ключа. |
- | Этот метод известен как двунаправленное обучение. | + | Этот метод известен как двунаправленное обучение. |
Для обновления весовых коэффициентов могут использоваться следующие правила: | Для обновления весовых коэффициентов могут использоваться следующие правила: | ||
- | * Правило Хеббиана | + | * [[Правило Хеббиана]]. |
- | + | * [[Анти-правило Хеббиана]]. | |
- | * Анти-правило Хеббиана | + | * [[Случайное блуждание]]. |
- | + | ||
- | * Случайное блуждание | + | |
- | + | ||
=== Виды атак и надёжность === | === Виды атак и надёжность === | ||
- | Для каждой атаки предполагается, что криптоаналитик Е может подслушивать сообщения между А и Б, но не может их изменять. | + | Для каждой атаки предполагается, что [[криптография|криптоаналитик]] Е может подслушивать сообщения между А и Б, но не может их изменять. |
==== Метод грубой силы ==== | ==== Метод грубой силы ==== | ||
Строка 80: | Строка 75: | ||
Защищенность обычных криптографических систем можно улучшить, увеличив длину ключа. В нейрокриптографии вместо ключа увеличивается синаптическая длина L. Это увеличивает сложность атаки экспоненциально, в то время как затраты абонентов на дешифрацию растут полиномиально. Таким образом, взлом подобной системы является NP-сложной задачей. | Защищенность обычных криптографических систем можно улучшить, увеличив длину ключа. В нейрокриптографии вместо ключа увеличивается синаптическая длина L. Это увеличивает сложность атаки экспоненциально, в то время как затраты абонентов на дешифрацию растут полиномиально. Таким образом, взлом подобной системы является NP-сложной задачей. | ||
- | Алексанр Климов, Антон Митягин и Ади Шамир утверждают, что исходный алгоритм нейросинхронизации может быть сломан по крайней мере тремя видами атак: геометрической, вероятностным анализом и генетическими алгоритмами. | + | Алексанр Климов, Антон Митягин и Ади Шамир утверждают, что исходный алгоритм нейросинхронизации может быть сломан по крайней мере тремя видами атак: [[геометрическая атака|геометрической]], [[вероятностный анализ|вероятностным анализом]] и [[генетический алгоритм|генетическими алгоритмами]]. |
Хотя данная реализация небезопасна, идеи случайной синхронизации могут привести к абсолютно безопасной схеме. | Хотя данная реализация небезопасна, идеи случайной синхронизации могут привести к абсолютно безопасной схеме. | ||
=== Защита от квантовых компьютеров === | === Защита от квантовых компьютеров === | ||
- | В квантовом компьютере данные хранятся в | + | В [[квантовый компьютер|квантовом компьютере]] данные хранятся в [[кубит]]ах. Это позволяет решать более сложные задачи ([[задача дискретного логарифмирования|дискретный логарифм]], [[задача факторизации|факторизация]]) за существенно меньшее время. Поэтому очень важно найти алгоритмы , не основанные на этих проблемах теории чисел. |
Нейронный протокол обмена ключей не основан на теории чисел, он основан на различии между однонаправленной и двунаправленной синхронизацией нейронных сетей. Поэтому, подобные протоколы могут ускорить процесс обмена. | Нейронный протокол обмена ключей не основан на теории чисел, он основан на различии между однонаправленной и двунаправленной синхронизацией нейронных сетей. Поэтому, подобные протоколы могут ускорить процесс обмена. | ||
Строка 97: | Строка 92: | ||
* [http://link.aps.org/abstract/PRE/v73/e036121 Genetic attack on neural cryptography] | * [http://link.aps.org/abstract/PRE/v73/e036121 Genetic attack on neural cryptography] | ||
* [http://www.scipub.org/fulltext/jcs/jcs29710-715.pdf A backpropagation neural network for computer network security] | * [http://www.scipub.org/fulltext/jcs/jcs29710-715.pdf A backpropagation neural network for computer network security] | ||
+ | * [http://ru.wikipedia.org/wiki/Нейрокриптография Нейрокриптография в Видикедии] | ||
+ | |||
+ | [[Категория:Криптография]] | ||
+ | [[Категория:Нейронные сети]] |
Текущая версия
Данная статья является непроверенным учебным заданием.
До указанного срока статья не должна редактироваться другими участниками проекта MachineLearning.ru. По его окончании любой участник вправе исправить данную статью по своему усмотрению и удалить данное предупреждение, выводимое с помощью шаблона {{Задание}}. См. также методические указания по использованию Ресурса MachineLearning.ru в учебном процессе. |
Нейрокриптография это раздел криптографии, изучающий применение стохастических алгоритмов, в частности, нейронных сетей, для шифрования и криптоанализа.
Содержание |
Определение
В криптоанализе используется способность нейронных сетей исследовать пространство решений. Также имеется возможность создавать новые типы атак на существующие алгоритмы шифрования, основанные на том, что любая функции может быть представлена нейронной сетью. Взломав алгоритм, можно найти решение, по крайней мере, теоретически.
При этом используются такие свойства нейронных сетей, как взаимное обучение, самообучение, и стохастическое поведение, а также низкая чувствительность к шуму, неточностям(искажения данных, весовых коэффициентов, ошибки в программе). Они позволяют решать проблемы криптографии с открытым ключом, распределения ключей, хеширования и генерации псевдослучайных чисел.
Идеи нейрокриптографии впервые были озвучены Себастьяном Дорленсом (Sebastien Dourlens) в 1995 году, спустя 30 лет после определения основ нейронных сетей.
Применение
Область относительно нова, и пока не имеет практических применений. Однако уже сейчас она может использоваться там, где есть непрерывная генерация ключей. В 1995 году Себастьян Дорленс применил нейрокриптоанализ, чтобы научить нейронные сети инвертировать S-перестановки (S-Box --- табличные перестановки) в DES. В ходе эксперимента было найдено 50 % битов ключа, то есть ключ целиком может быть найден за короткое время. Аппаратная реализация состоит из множества (64К) простых микроконтроллеров, расположенных на СБИС. Другой пример — протокол шифрования с открытым ключом Халил Шибаба (Khalil Shihab), в котором процесс дешифрации основан на многоуровневой нейронной сети, обучающейся по алгоритму обратного распространения (back propagation). В то же время процесс шифрования и создания закрытого ключа использует обычную двоичную алгебру. Преимущество этого метода в малых затратах времени и памяти. Недостаток — в алгоритме обратного распространения: на больших массивах входных данных нейронная сети обучается очень долго. Поэтому данный протокол имеет лишь теоретическое значение.
Протокол обмена ключами
Для обмена ключами между двумя абонентами наиболее часто используется алгоритм Диффи-Хеллмана. Его более безопасная замена основана на синхронизации двух древовидных машин четности (TPM, tree parity machines --- см. далее). Синхронизация этих машин похожа на синхронизацию двух хаотических осцилляторов в теории хаотических связей (chaos communications).
TPM
TPM - это особый вид многоуровневой нейронной сети прямого распространения.
Она состоит из одного выходного нейрона, K скрытых нейронов и K*N входных нейронов. Входные нейроны принимают двоичные значения:
Веса между входными и скрытыми нейронами принимают значения:
Значение каждого скрытого нейрона есть сумма произведений входного значения и весового коэффициента:
Значение выходного нейрона есть произведение всех скрытых нейронов:
Выходное значение также двоичное.
Протокол
У каждого абонента (А или Б) есть своя TPM. Их синхронизация происходит следующим образом:
- Задаём случайные значения весовых коэффициентов
- Выполняем следующие шаги, пока не наступит синхронизация
- Генерируем случайный входной вектор X
- Вычисляем значения скрытых нейронов
- Вычисляем значение выходного нейрона
- Сравниваем выходы двух TPM:
- Выходы разные: переход к п.3
- Выходы одинаковые: применяем выбранное правило к весовым коэффициентам
После полной синхронизации (веса wij обоих TPM одинаковые), А и Б могут использовать веса в качестве ключа. Этот метод известен как двунаправленное обучение.
Для обновления весовых коэффициентов могут использоваться следующие правила:
Виды атак и надёжность
Для каждой атаки предполагается, что криптоаналитик Е может подслушивать сообщения между А и Б, но не может их изменять.
Метод грубой силы
Криптоаналитик должен проверить все возможные варианты ключей, т.е. все возможные веса wij. Если имеется K скрытых нейронов, K*N входных нейронов и максимальный вес L, то это даёт (2L+1)KN вариантов. Например, для K = 3, L = 3, N = 100 - 3*10253 различных ключей. На сегодняшний день такая атака невозможна.
Обучение собственной TPM
Пусть у криптоаналитика есть такая же TPM, как и у абонентов. Он хочет её синхронизировать с двумя другими TPM. На каждом шаге возможны три ситуации:
- Output(A) ≠ Output(B): Абоненты не обновляют веса.
- Output(A) = Output(B) = Output(E): Все трое обновляют веса.
- Output(A) = Output(B) ≠ Output(E): А и Б обновляют веса, но Е не может этого сделать.Поэтому он обучается медленнее, чем А и Б синхронизируются.
Таким образом, криптоаналитик может определить ключ лишь с очень малой вероятностью.
Другие атаки
Защищенность обычных криптографических систем можно улучшить, увеличив длину ключа. В нейрокриптографии вместо ключа увеличивается синаптическая длина L. Это увеличивает сложность атаки экспоненциально, в то время как затраты абонентов на дешифрацию растут полиномиально. Таким образом, взлом подобной системы является NP-сложной задачей.
Алексанр Климов, Антон Митягин и Ади Шамир утверждают, что исходный алгоритм нейросинхронизации может быть сломан по крайней мере тремя видами атак: геометрической, вероятностным анализом и генетическими алгоритмами. Хотя данная реализация небезопасна, идеи случайной синхронизации могут привести к абсолютно безопасной схеме.
Защита от квантовых компьютеров
В квантовом компьютере данные хранятся в кубитах. Это позволяет решать более сложные задачи (дискретный логарифм, факторизация) за существенно меньшее время. Поэтому очень важно найти алгоритмы , не основанные на этих проблемах теории чисел. Нейронный протокол обмена ключей не основан на теории чисел, он основан на различии между однонаправленной и двунаправленной синхронизацией нейронных сетей. Поэтому, подобные протоколы могут ускорить процесс обмена.
Ссылки
- Neuro-Cryptography 1995 — The first definition of the Neuro-Cryptography (AI Neural-Cryptography) applied to DES cryptanalysis by Sebastien Dourlens, France.
- Neural Cryptography — Description of one kind of neural cryptography at the University of Würzburg, Germany.
- Using synchronized neural networks to achieve public key authentication system — One of the leading papers that introduce the concept.
- A remote password authentication scheme for multiserverarchitecture using neural networks — Possible practical application of Neural Cryptography.
- Analysis of Neural Cryptography — Analysis of neural cryptography in general and focusing on the weakness and possible attacks of using synchronized neural networks.
- Neural Synchronization and Cryptography — Andreas Ruttor. PhD thesis, Bayerische Julius-Maximilians-Universität Würzburg, 2006.
- Genetic attack on neural cryptography
- A backpropagation neural network for computer network security
- Нейрокриптография в Видикедии