Генетический алгоритм

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск
м (Оператор скрещивания)
м (Недостатки ГА)
 
(8 промежуточных версий не показаны.)
Строка 63: Строка 63:
==== Оператор скрещивания ====
==== Оператор скрещивания ====
-
Чаще всего скрещивание производят над двумя лучшими особями. Результатом является также обычно две особи с компонентами, взятыми от их родителей. Цель этого оператора - распространение хороших генов по популяции и стягивание плотности популяции к тем областям, где она итак велика в том предположении, что "нас много там, где хорошо".
+
Чаще всего скрещивание производят над двумя лучшими особями. Результатом является также обычно две особи с компонентами, взятыми от их родителей. Цель этого оператора - распространение хороших генов по популяции и стягивание плотности популяции к тем областям, где она и так велика в том предположении, что "нас много там, где хорошо".
*В одноточечном варианте, результатом скрещивания родителей <tex>p_i^k=\{a_1,a_2,... a_n\},\qquad p_j^k=\{b_1,b_2,...b_n\}\in P^k</tex> в <tex>k</tex>-ой популяции станут два
*В одноточечном варианте, результатом скрещивания родителей <tex>p_i^k=\{a_1,a_2,... a_n\},\qquad p_j^k=\{b_1,b_2,...b_n\}\in P^k</tex> в <tex>k</tex>-ой популяции станут два
элемента популяции <tex>k+1</tex>, такие что <tex>p_i^{k+1}=\{a_1,... ,a_c,b_{c+1},.. ,b_n\},\qquad p_j^{k+1}=\{b_1,... ,b_c,a_{c+1},...a_n\}\in P^{k+1}</tex>, где точка <tex>c</tex> выбирается случайно. В двухточечном варианте, соответственно, точек пересечения будет две, и они также выбираются случайно. Легко расширить эту конструкцию и до n точек. Нужно заметить, что в случае нечётного n, происходит n+1-точечный кроссинговер с n+1-ой точкой между последней и первой компонентами.
элемента популяции <tex>k+1</tex>, такие что <tex>p_i^{k+1}=\{a_1,... ,a_c,b_{c+1},.. ,b_n\},\qquad p_j^{k+1}=\{b_1,... ,b_c,a_{c+1},...a_n\}\in P^{k+1}</tex>, где точка <tex>c</tex> выбирается случайно. В двухточечном варианте, соответственно, точек пересечения будет две, и они также выбираются случайно. Легко расширить эту конструкцию и до n точек. Нужно заметить, что в случае нечётного n, происходит n+1-точечный кроссинговер с n+1-ой точкой между последней и первой компонентами.
Строка 91: Строка 91:
Генетические алгоритмы богаты возможностями встраивания различных эвристик. До сих пор не существует (и не будет!) точных критериев оптимального размера популяции, способов мутаций и скрещивания, выбора начальной популяции и т.п.
Генетические алгоритмы богаты возможностями встраивания различных эвристик. До сих пор не существует (и не будет!) точных критериев оптимального размера популяции, способов мутаций и скрещивания, выбора начальной популяции и т.п.
-
==== Диплоидность ====
+
==== Плоидность ====
-
...
+
Каждая особь состоит не из одного, а нескольких пробных решений. Каждый кратный элемент пробного решения имеет активный(доминантный) или неактивный(рецессивный) статус, и, тем самым, проявляет или не проявляет (или же проявляет с определённой интенсивностью) себя при вычислении целевой функции. Кратность пробных решений в особи называется плоидностью (2 - диплоидный набор, 3 - триплоидный, n - n-плоидный набор).
 +
 
 +
Преимущества:
 +
*Вытягивает популяцию из локального экстремума, т.к:
 +
**Поддерживает генетическое разнообразие, не позволяет вырождаться;
 +
**Позволяет естественным путём воссоздать аналог инцеста.
 +
Недостатки:
 +
*Усложнение алгоритма;
 +
*Требует большего числа итераций до схождения в экстремум.
 +
 
 +
Отдельная статья: [[плоидность]]
==== Мета ГА ====
==== Мета ГА ====
Строка 186: Строка 196:
== Эффективность генетических алгоритмов ==
== Эффективность генетических алгоритмов ==
-
Холланд недвусмысленно пишет{{источник?}}, что при прочих равных условиях ГА будет работать хуже, чем специальный алгоритм, рассчитанный на конкретную задачу (тип признаков, целевую функцию). Например, полный перебор конечного небольшого пространства или любой эффективных алгоритм спуска будет всегда эффективнее чем ГА. Тем не менее, в ситуации, когда о задаче ничего a priori не известно, можно полагаться на результат работы простейшего генетического алгоритма как некого приближения.
+
Холланд недвусмысленно пишет[http://qai.narod.ru/Papers/holland_2000.html], что при прочих равных условиях ГА будет работать хуже, чем специальный алгоритм, рассчитанный на конкретную задачу (тип признаков, целевую функцию). Например, полный перебор конечного небольшого пространства или любой эффективных алгоритм спуска будет всегда эффективнее чем ГА. Тем не менее, в ситуации, когда о задаче ничего a priori не известно, можно полагаться на результат работы простейшего генетического алгоритма как некого приближения.
-
Существуют некоторый класс функций ([[HDF (Holland)|HDF]]), с которым за приемлемое время (пока?) справляются только генетические алгоритмы.
+
Существуют некоторый класс функций (Hyperplane-defined functions, Holland), с которым за приемлемое время[http://qai.narod.ru/Papers/holland_2000.html] справляются только генетические алгоритмы.
-
==== Тестовые функции ====
+
== Тестовые функции ==
-
...
+
В процессе разработки эффективной реализации генетического алгоритма появляется необходимость простой тестовой функции, которая
 +
# учитывает все сильные стороны ГА (многомерная, многоэкстремальная и т.п.);
 +
# имеет аналитическое точное решение.
 +
# проста в реализации
 +
# её проблематично "взломать"
 +
Самая банальная, сферическая функция, <tex>W(x)=\sum_{i=1}^N (x_i-x_i^*)^2</tex> моментально решается любым алгоритмом спуска.
 +
Многоэкстремальная <tex>W(x)=\sum_{i=1}^N\Bigl[ 1-cos(x_i-x_i^*)+0.001 (x_i-x_i^*)^2 \Bigr]</tex>. Подобных функций можно придумать(и было придумано) большое количество, но малое число из них удовлетворяет нужным требованиям. Холландером были предложены функции HDR[http://qai.narod.ru/Papers/holland_2000.html], которые изначально строятся с целью обеспечения всех выдвинутых условий.
== Мнения ==
== Мнения ==
Строка 216: Строка 232:
*Большое количество свободных параметров, которое превращает "работу с ГА" в "игру с ГА";
*Большое количество свободных параметров, которое превращает "работу с ГА" в "игру с ГА";
*Недоказанность сходимости;
*Недоказанность сходимости;
-
просты целевых функциях (гладкие, один экстремум и т.п.) генетика всегда проигрывает по скорости простым алгоритмам поиска.
+
простых целевых функциях (гладкие, один экстремум и т.п.) генетика всегда проигрывает по скорости простым алгоритмам поиска.
== Читайте также ==
== Читайте также ==
-
*[[Теорема схемы (Holland)|Теорема схемы]]
+
*[[Теорема схемы]]
...
...
-
 
== Ссылки ==
== Ссылки ==
Строка 227: Строка 242:
[http://basegroup.ru/library/optimization Генетические алгоритмы на basegroup.ru] <br />
[http://basegroup.ru/library/optimization Генетические алгоритмы на basegroup.ru] <br />
[http://gaul.sourceforge.net/documentation.html GAUL: Genetic Algorithm Utility Library — нетривиальная обобщенная свободная реализация GA] <br />
[http://gaul.sourceforge.net/documentation.html GAUL: Genetic Algorithm Utility Library — нетривиальная обобщенная свободная реализация GA] <br />
 +
[http://neuroschool.narod.ru/books/evogrbn.html Демон Дарвина...] -- Отлично рассмотрен с точки зрения математики накопительный эффект от рецессивности (см. выше "плоидность");<br />
 +
[http://masters.donntu.edu.ua/2005/fvti/trubarov/library/kpi_ga.pdf Г. К. Вороновский и др., ''Генетические алгоритмы, искусственные нейронные сети и проблемы виртуальной реальности''] -- пример положительного эффекта диплоидности на качество схождения ГА в глобальном экстремуме.<br />
[[Категория:Эволюционные алгоритмы]]
[[Категория:Эволюционные алгоритмы]]
 +
[[Категория:Дискретная оптимизация]]

Текущая версия

ДНК
ДНК

Генетический алгоритм (англ. genetic algorithm) — это эвристический алгоритм поиска, используемый для решения задач оптимизации и моделирования путём последовательного подбора, комбинирования и вариации искомых параметров с использованием механизмов, напоминающих биологическую эволюцию. Является разновидностью эволюционных вычислений (англ. evolutionary computation). Отличительной особенностью генетического алгоритма является акцент на использование оператора «скрещивания», который производит операцию рекомбинации решений-кандидатов, роль которой аналогична роли скрещивания в живой природе.

Содержание


Постановка задачи

Для функции приспособленности W(x) в пространстве поиска X требуется найти x^*=\arg\max_{x\in X} W(x) (или x^*=\arg\min_{x\in X} W(x)).

Описание алгоритма

  1. Случайным образом генерируется конечный набор пробных решений: P^1=\{p_1^1 ... p_n^1\},\qquad p_i^1\in X (первое поколение, n - размер популяции).
  2. Оценка приспособленности текущего поколения: F^k=\{f_1^k ... f_n^k\},\qquad f_i^k=W(p_i^k)
  3. Выход, если выполняется критерий останова, иначе
  4. Генерация нового поколения посредством операторов селекции S, скрещивания C и мутаций M: P^{k+1}=M\cdot C \cdot S (P^k,F^k) и переход к пункту 2.

В процессе селекции выживают отбирают только несколько лучших пробных решений, остальные далее не используются. Скрещивание за место пары решений создаёт другую, элементы которой перемешаны каким-то особым образом. Мутация случайным образом меняет какую-нибудь компоненту пробного решения на иную.

Иные обозначения

Несмотря на внушительный возраст, в генетических алгоритма до сих пор используют различную терминологию, проистекающей как из генетики, так и из кибернетики.

Встречаются такие обозначения:

  • Функция приспособленности (Fitness) W(x) - целевая функция;
  • Особь - пробное решение p_i^k \in  X;
  • Популяция - все поколения, вносящие вклад в последующее. Чаще всего поколение и популяция - синонимы;
  • Ген - компонент вектора x пространства поиска X;
  • Скрещивание - кроссинговер (crossingover).

Применение генетических алгоритмов

Генетические алгоритмы применяются для решения следующих задач:

  1. Оптимизация функций
  2. Оптимизация запросов в базах данных
  3. Разнообразные задачи на графах (задача коммивояжёра, раскраска, нахождение паросочетаний)
  4. Настройка и обучение искусственной нейронной сети
  5. Задачи компоновки
  6. Составление расписаний
  7. Игровые стратегии
  8. Теория приближений
  9. Искусственная жизнь
  10. Биоинформатика (свёртывание белков)

Подробное описание алгоритма

Кодирование пространства поиска

В ГА часто используют следующие типы кодирования компонент пространства поиска:

  • Бинарный, если признак сам по себе является бинарным;
  • Численный в двоичной системе. Расширенный вариант бинарного, где используется фиксированное число бит. Самый простой в реализации, но имеет существенный недостаток (см. ниже);
  • Кодирование кодом Грея. Избавляет от проблем предыдущего варианта, но добавляет накладные расходы на кодирование/декодирование;
  • С небинарными операторами скрещивания и мутаций:
    • Числа с плавающей запятой. Используются в том случае, когда масштаб изменения признака заранее не известен;
    • Номинальные типы и более абстрактные сущности;
  • Типы с автоподстройкой...

Начальная популяция

Начальная популяция генерируется обычно случайно. Единственный критерий - достаточное разнообразие особей, чтобы популяция не свалилась в ближайший экстремум.

Оценка приспособленности

Оценка приспособленности часто проводится в две стадии. Первая - собственно оценка: F^k=\{f_1^k ... f_n^k\},\qquad f_i^k=W(p_i^k) . Вторая - дополнительные преобразования. Например, ею может быть нормировка к виду F^{k'}=\{f_1^{k'} ... f_n^{k'}\},\qquad f_{i}^{k'}=(f_i^k-f_0)/(f_1-f_0) , где f_1 и f_0, соответственно, лучший и худший показатели в текущей популяции.

Оператор отбора (селекции)

На этом этапе отбирается оптимальная популяция для дальнейшего размножения. Обычно берут определённое число лучших по приспособленности. Имеет смысл также отбрасывать "клонов", т.е. особей с одинаковым набором генов.

Оператор скрещивания

Чаще всего скрещивание производят над двумя лучшими особями. Результатом является также обычно две особи с компонентами, взятыми от их родителей. Цель этого оператора - распространение хороших генов по популяции и стягивание плотности популяции к тем областям, где она и так велика в том предположении, что "нас много там, где хорошо".

  • В одноточечном варианте, результатом скрещивания родителей p_i^k=\{a_1,a_2,... a_n\},\qquad p_j^k=\{b_1,b_2,...b_n\}\in P^k в k-ой популяции станут два

элемента популяции k+1, такие что p_i^{k+1}=\{a_1,... ,a_c,b_{c+1},.. ,b_n\},\qquad p_j^{k+1}=\{b_1,... ,b_c,a_{c+1},...a_n\}\in P^{k+1}, где точка c выбирается случайно. В двухточечном варианте, соответственно, точек пересечения будет две, и они также выбираются случайно. Легко расширить эту конструкцию и до n точек. Нужно заметить, что в случае нечётного n, происходит n+1-точечный кроссинговер с n+1-ой точкой между последней и первой компонентами.

  • Скрещиванием с маской является результат в виде двух потомков с компонентами, принадлежность которых определяется по битовой маске. Т.е. результатом скрещивания родителей p_i^k=\{a_1,a_2,... ,a_n\},\qquad p_j^k=\{b_1,b_2,...,b_n\}\in P^k в k-ой популяции станут два

элемента популяции k+1, такие что p_i^{k+1}=\{c_1,...,c_n\},\qquad p_j^{k+1}=\{d_1,..., d_n\}\in P^{k+1}, где c_i=a_i при m_i=0 и c_i=b_i при m_i\neq0, и противоположные условия для второго отпрыска. Маска выбирается случайно. Для простоты, ею может быть третья особь.

  • В непрерывном пространстве можно ввести такую аналогию для скрещивания:

P^{k+1}(x)=\int_{X}dy P^{k}(x)P^{k}(y) \exp\Bigl[-\frac{(x-y)^{T}M_c(x-y)}{\rho(x,y)}\Bigr], где P^k(x) - плотность генофонда к-ой популяции, \rho(x,y) - расстояние между двумя особями с генами x и y, M_c - матрица силы скрещивания.

Оператор мутаций

Оператор мутаций просто меняет произвольное число элементов в особи на другие произвольные. Фактически он является неким диссипативным элементом, с одной стороны вытягивающим из локальных экстремумов, с другой - приносящим новую информацию в популяцию.

  • Инвертирует бит в случае бинарного признака.
  • Изменяет на некоторую величину числовой признак. Причём, скорее на ближайший.
  • Заменит на другой номинальный признак.
  • В непрерывном пространстве можно ввести следующую аналогию:

P^{k+1}(x)=\int_{X}dyP^{k}(y) \exp\Bigl[-(x-y)^{T}M_m(x-y)\Bigr], где P^k(x) - плотность генофонда к-ой популяции, M_c - матрица силы мутаций.

Критерии останова

  • нахождение глобального, либо субоптимального решения;
  • выходом на «плато»;
  • исчерпание числа поколений, отпущенных на эволюцию;
  • исчерпание времени, отпущенного на эволюцию;
  • исчерпание заданного числа обращений к целевой функции.


Эвристики

Генетические алгоритмы богаты возможностями встраивания различных эвристик. До сих пор не существует (и не будет!) точных критериев оптимального размера популяции, способов мутаций и скрещивания, выбора начальной популяции и т.п.

Плоидность

Каждая особь состоит не из одного, а нескольких пробных решений. Каждый кратный элемент пробного решения имеет активный(доминантный) или неактивный(рецессивный) статус, и, тем самым, проявляет или не проявляет (или же проявляет с определённой интенсивностью) себя при вычислении целевой функции. Кратность пробных решений в особи называется плоидностью (2 - диплоидный набор, 3 - триплоидный, n - n-плоидный набор).

Преимущества:

  • Вытягивает популяцию из локального экстремума, т.к:
    • Поддерживает генетическое разнообразие, не позволяет вырождаться;
    • Позволяет естественным путём воссоздать аналог инцеста.

Недостатки:

  • Усложнение алгоритма;
  • Требует большего числа итераций до схождения в экстремум.

Отдельная статья: плоидность

Мета ГА

....


Простейший пример ГА

Подбор ключа 2048 бит

#include <stdio.h>
#include <stdlib.h>
 
#include <iostream>
#include <algorithm>
#include <vector>
 
using namespace std;
 
#define KEY_LEN 2048 // Длина ключа
bool key[KEY_LEN]; //Неизвестный ключ
 
#define POP_SIZE 20 // Размер популяции
#define ELITE 5 // Количество привелигированных особей
struct gen_struct { // Особь, кортеж из генов и значения пригодности
 bool gen[KEY_LEN];
 int fitness;
 gen_struct(){ //Инициализация случайными значениями
  for(int i=0;i<KEY_LEN;++i)
   gen[i]=(random()%2==0);
 }
 bool operator<(const gen_struct & g)const{
  return (g.fitness>fitness);
 }
 gen_struct(const gen_struct& g){
  for(int i=0;i<KEY_LEN;++i) gen[i]=g.gen[i];
  fitness=g.fitness;
 }
 void Mutate(){ //Оператор мутаций
  gen[random()%KEY_LEN]=random()%2;
 }
 void Crossingover(gen_struct & g){ //Оператор скрещивания
  for(int i=0;i<KEY_LEN;++i){
   if(random()%2){
    gen[i]=g.gen[i];
   }
  }
 }
};
 
int Fitness(bool gen[]){ //Целевая функция
 int ret=0;
 for(int i=0;i<KEY_LEN;i++){
  ret+=(key[i]!=gen[i]);
 }
 return ret;
}
 
 
void GA(gen_struct &ret){
 vector<gen_struct> pop;
 pop.resize(POP_SIZE);
 while(1){
  for(int i=0;i<POP_SIZE;++i)
   if((pop[i].fitness=Fitness(pop[i].gen))==0){
      ret=pop[i];
      return;
     }
  sort(pop.begin(), pop.end());
  for(int i=ELITE;i<POP_SIZE;++i){// 5 лучших остаются без изменений
   pop[i].Crossingover(pop[random()%(ELITE)]);
   pop[i].Mutate();
  }
 }
}
 
 
int main(){
  for(int i=0;i<KEY_LEN;i++){
    key[i]=(random()%2==0);
  }
  gen_struct ret;
  GA(ret);
  cout << "key=";
  for(int i=0;i<KEY_LEN; i++){
    cout << ret.gen[i];
  }
  cout << endl;
}


Эффективность генетических алгоритмов

Холланд недвусмысленно пишет[1], что при прочих равных условиях ГА будет работать хуже, чем специальный алгоритм, рассчитанный на конкретную задачу (тип признаков, целевую функцию). Например, полный перебор конечного небольшого пространства или любой эффективных алгоритм спуска будет всегда эффективнее чем ГА. Тем не менее, в ситуации, когда о задаче ничего a priori не известно, можно полагаться на результат работы простейшего генетического алгоритма как некого приближения.

Существуют некоторый класс функций (Hyperplane-defined functions, Holland), с которым за приемлемое время[2] справляются только генетические алгоритмы.

Тестовые функции

В процессе разработки эффективной реализации генетического алгоритма появляется необходимость простой тестовой функции, которая

  1. учитывает все сильные стороны ГА (многомерная, многоэкстремальная и т.п.);
  2. имеет аналитическое точное решение.
  3. проста в реализации
  4. её проблематично "взломать"

Самая банальная, сферическая функция, W(x)=\sum_{i=1}^N (x_i-x_i^*)^2 моментально решается любым алгоритмом спуска. Многоэкстремальная W(x)=\sum_{i=1}^N\Bigl[ 1-cos(x_i-x_i^*)+0.001 (x_i-x_i^*)^2 \Bigr]. Подобных функций можно придумать(и было придумано) большое количество, но малое число из них удовлетворяет нужным требованиям. Холландером были предложены функции HDR[3], которые изначально строятся с целью обеспечения всех выдвинутых условий.

Мнения

Конвергенция с генетикой и синтетической теории эволюции

Прообраз генетического алгоритма пришёл из биологии и, несомненно, продолжает «подсматривать» оттуда ответы на многие вопросы, возникающие при проектированию эффективных реализаций генетических алгоритмов. Более того, идеи по оптимизации ГА находят подтверждение и у биологов. Например, такие явления как га- ди- и квадру- плоидные наборы хромосом, инцест, удвоение гена, управление скоростью мутаций, триггеры и т.п. Тем не менее, математика и кибернетика позволяет выйти за пределы химической реальности клетки и представить n-плоидный набор хромосом, объектные сущности вместо генов и т.п.

Нейронные сети и эволюционное моделирование

ИНС и ГА часто пытаются применять в тандеме, т.к. и те и другие имеют корни из биологии. Тем не менее (см. выше об эффективности ), во-первых алгоритм обратного распространения ошибки настройки ИНС работает значительно (на порядок) быстрее в простых случаях. А во-вторых, настройка нейронной сети в биологии происходит методом, который, скорее всего, значительно разнится с генетическим подходом.

Аналогия с другими алгоритмами

В случае отключённого кроссинговера ГА начинает вести себя по образу случайного поиска. Также у ГА есть аналогия со случайным поиском с адаптацией. Во многих стохастических алгоритмах можно найти аналогию с ГА.

Преимущества ГА

  • Большое число свободных параметров, позволяющим эффективно встраивать эвристики;
  • Эффективное распараллеливание;
  • Работает заведомо не хуже абсолютно случайного поиска;
  • Связь с биологией, дающая некоторую надежду на исключительную эффективность ГА в природе.

Недостатки ГА

  • Большое количество свободных параметров, которое превращает "работу с ГА" в "игру с ГА";
  • Недоказанность сходимости;
  • В простых целевых функциях (гладкие, один экстремум и т.п.) генетика всегда проигрывает по скорости простым алгоритмам поиска.

Читайте также

...

Ссылки

Генетические алгоритмы и не только
Генетические алгоритмы на basegroup.ru
GAUL: Genetic Algorithm Utility Library — нетривиальная обобщенная свободная реализация GA
Демон Дарвина... -- Отлично рассмотрен с точки зрения математики накопительный эффект от рецессивности (см. выше "плоидность");
Г. К. Вороновский и др., Генетические алгоритмы, искусственные нейронные сети и проблемы виртуальной реальности -- пример положительного эффекта диплоидности на качество схождения ГА в глобальном экстремуме.

Личные инструменты