в) нечеткими логическими формулами считаются те и только те выражения, которые построены согласно пунктам а) и б).
Рассматривавшиеся ранее составные нечеткие высказывания являются нечеткими логическим формулами, если входящие в них простые нечеткие высказывания рассматривать как нечеткие логические переменные.
Важнейшим фактором в осуществлении преобразований логических формул является равносильность логических формул. В нечеткой логике возможности осуществления равносильных преобразований расширяются за счет того, что для таких преобразований, в отличие от четкой логики, достаточно лишь наличия необходимой степени равносильности нечетких логических формул.
Понятие равносильности нечетких логических формул ( , , …, ) и ( , , …, ), определенных на наборах значений одних и тех же нечетких логических переменных , , …, , вводится как обощение равносильности четких логических формул через определение степени их равносильности.
( , ) формулmСтепень равносильности ( , , …, ) и ( , , …, ) определяется выражением:
0.5 (пишут );³( , )mФормулы и называют: нечетко равносильными - если ); нечетко~( , )=0.5 (пишут mвзаимно нечетко индифферентными - если ).¹0.5 (пишут £ ( , )mнеравносильными - если
Несмотря на то, что нечеткая логика Лотфи Заде является наиболее обоснованной с теоретической точки зрения и имеет множество практических применений, на пути ее широкого распространения возникает немало трудностей из-за отсутствия общепринятого словаря и языка для выражения уверенности в нечетких суждениях.
До сих пор мы не принимали во внимание тот факт, что в реальных условиях знания, которыми располагает человек, всегда в какой-то степени неполны, приближенны, ненадежны. Тем не менее, людям на основе таких знаний все же удается делать достаточно обоснованные выводы и принимать разумные решения. Следовательно, чтобы интеллектуальные системы были действительно полезны, они должны быть способны учитывать неполную определенность знаний и успешно действовать в таких условиях.
Неопределенность (не-фактор) может иметь различную природу.
Наиболее распространенный тип недостаточной определенности знаний обусловлен объективными причинами:
- действием случайных и неучтенных обстоятельств,
- неточностью измерительных приборов,
- ограниченными способностями органов чувств человека,
- отсутствием возможности получения необходимых свидетельств.
В таких случаях люди в оценках и рассуждениях прибегают к использованию вероятностей, допусков и шансов (например, шансов победить на выборах).
Другой тип неопределенности, можно сказать, обусловлен субъективными причинами:
- нечеткостью содержания используемых человеком понятий (например, "толпа"),
- неоднозначностью смысла слов и высказываний (например, "ключ" или знаменитое "казнить нельзя помиловать").
Неоднозначность смысла слов и высказываний часто удается устранить, приняв во внимание контекст, в котором они употребляются, но это тоже получается не всегда или не полностью.
Таким образом, неполная определенность и нечеткость имеющихся знаний - скорее типичная картина при анализе и оценке положения вещей, при построении выводов и рекомендаций, чем исключение. В процессе исследований по искусственному интеллекту для решения этой проблемы выработано несколько подходов.
Самым первым можно считать использование эвристик в решении задач, в которых достаточно отдаленный прогноз развития событий невозможен (как, например, в шахматной игре).
Но самое серьезное внимание этой проблеме стали уделять при создании экспертных систем и первым здесь был применен вероятностный подход (PROSPECTOR), поскольку теория вероятностей и математическая статистика в тот период были уже достаточно развиты и весьма популярны.
Однако проблемы, возникшие на этом пути, заставили обратиться к разработке особых подходов к учету неопределенности в знаниях непосредственно для экспертных систем (коэффициенты уверенности в системах MYCIN и EMYCIN).
В дальнейшем исследования в этой области привели к разработке особой (нечеткой) логики, основы которой были заложены Лотфи Заде.
В решении рассматриваемой проблемы применительно к экспертным системам, построенным на основе правил (систем продукций), выделяются четыре основных вопроса:
а) как количественно выразить достоверность, надежность посылок?
б) как выразить степень поддержки заключения конкретной посылкой?
в) как учесть совместное влияние нескольких посылок на заключение?
г) как строить цепочки умозаключений в условиях неопределенности?
На языке продукций эти вопросы приобретают следующий смысл.
Будем обозначать ct(А) степень уверенности в А (от англ. certainty - уверенность).
Тогда первый вопрос заключается в том, как количественно выразить степень уверенности ct(А) в истинности посылки (свидетельства) А.
Второй вопрос связан с тем, что истинность посылки А в продукции А→С может не всегда влечь за собой истинность заключения С. Степень поддержки заключения С посылкой А в продукции А→С обозначим через ct(А→С).
Третий вопрос обусловлен тем, что одно и то же заключение С может в различной степени поддерживаться несколькими посылками (например, заключение С может поддерживаться посылкой А посредством продукции А→С с уверенностью сt(А→С) и посылкой В посредством продукции В→С с уверенностью ct(В→С)). В этом случае возникает необходимость учета степени совместной поддержки заключения несколькими посылками.
Последний вопрос вызван необходимостью оценки степени достоверности вывода, полученного посредством цепочки умозаключений (например, вывода С, полученного из посылки А применением последовательности продукций А→В, В→С, обеспечивающих степени поддержки, соответственно, сt(А→В) и ct(В→С) ).
Подход на основе условных вероятностей (теоремы Байеса)
Рассматриваемый здесь подход к построению логического вывода на основе условных вероятностей называют байесовским. Байесовский подход не является единственным подходом к построению выводов на основе использования вероятностей, но он представляется удобным в условиях, когда решение приходится принимать на основе части свидетельств и уточнять по мере поступления новых данных.
В сущности, Байес исходит из того, что любому предположению может быть приписана некая ненулевая априорная (от лат. a priori - из предшествующего) вероятность того, что оно истинно, чтобы затем путем привлечения новых свидетельств получить апостериорную (от лат. a posteriori - из последующего) вероятность истинности этого предположения. Если выдвинутая гипотеза действительно верна, новые свидетельства должны способствовать увеличению этой вероятности, в противном же случае должны ее уменьшать.
Примем для дальнейших рассуждений следующие обозначения:
P(H) - априорная вероятность истинности гипотезы H (от англ. Hypothesis - гипотеза);
P(H:E) - апостериорная вероятность истинности гипотезы Н при условии, что получено свидетельство Е (от англ. Evidence - свидетельство);
Р(Е:H) - вероятность получения свидетельства Е при условии, что гипотеза Н верна;
P(E:неН) - вероятность получения свидетельства E при условии, что гипотеза Н неверна.
По определению условных вероятностей имеем:
и .Учитывая, что Р(Н и E)=Р(Е и Н), получаем теорему Байеса:
.Учитывая, что Р(Е) = Р(Е:Н)Р(Н) + Р(Е:неН)Р(неН) и Р(неН) = 1- Р(Н), получаем формулу, позволяющую уточнять вероятность истинности проверяемой гипотезы Н с учетом полученного свидетельства Е:
.Здесь обнаруживаются достоинства байесовского метода. Первоначальная (априорная) оценка вероятности истинности гипотезы Р(Н) могла быть весьма приближенной, но она позволила путем учета свидетельства Е получить более точную оценку Р(Н:Е), которую можно теперь использовать в качестве обновленного значения Р(Н) для нового уточнения с привлечением нового свидетельства. Иначе говоря, процесс уточнения вероятности Р(Н) можно повторять снова и снова с привлечением все новых и новых свидетельств, каждый раз обращаясь к одной и той же формуле. В конечном счете, если свидетельств окажется достаточно, можно получить окончательный вывод об истинности (если окажется, что Р(Н) близка к1) или ложности (если окажется, что Р(Н) близка к 0) гипотезы Н.
Шансы и вероятности связаны между собой следующей формулой:
.В некоторых странах использование шансов более распространено, чем использование вероятностей. Кроме того, использование шансов вместо вероятностей может быть более удобным с точки зрения вычислений.
Переходя к шансам в рассмотренных нами формулах, получим:
.Если же перейти к логарифмам величин, а в базе знаний хранить логарифмы отношений Р(Е:Н)/Р(Е:неН), то все вычисления сводятся просто к суммированию, поскольку
ln |O(H:E)| = ln |Р(Е:Н)/Р(Е:неН)| + ln |O(H)|.
Против использования шансов есть несколько возражений, главное из которых состоит в том, что крайние значения шансов равны "плюс" и "минус" бесконечности, тогда как для вероятностей это 0 и 1. Поэтому шансы использовать удобно в тех случаях, когда ни одна из гипотез не может быть ни заведомо достоверной, ни заведомо невозможной.