С 1991 года проводятся турниры программ, пытающихся пройти тест Тьюринга. Пока ещё эти программы (так называемые боты) крайне малоразумны. Всё, что они делают — это применяют, более или менее удачно, заранее подсказанные человеком правила. Осмыслить разговор боты даже не пытаются, в основном совершают попытки «обмануть» человека. Создатели закладывают в них ответы на наиболее часто задаваемые вопросы, стараются обойти распространенные ловушки. Например, внимательно следят, а не задаст ли судья один и тот же вопрос дважды? Человек в такой ситуации сказал бы что-то вроде: «Эй, ты уже спрашивал»! Значит, разработчик добавит боту правило тоже так поступать. А вот пример одного из «обманных правил», на которых основаны такие программы: Если человек сказал: «Думаешь ли ты, что фраза?», ответить: «Что ты имеешь в виду, говоря ФРАЗА? Что-то я тебя не понимаю». Так появляются бесконечные диалоги в стиле психоаналитиков:
— Как ты относишься к войне в Афганистане?
— О, я вижу, тебя волнует война в Афганистане? Давай поговорим об этом.
— Сколько на небе звёзд?
— Хмм, хотел бы я знать, сколько на небе звёзд!
— Думаешь ли ты, что жизнь прекрасна?
— Что ты имеешь в виду, говоря «жизнь прекрасна»? Что-то я тебя не понимаю.
Ясно, что при таком подходе создать действительно разумного собеседника нам никогда не удастся.
Ещё один способ оценки искусственного интеллекта – шахматы. Первый чемпионат мира по шахматам между компьютерными программами прошел в 1974 году. Победителем стала советская шахматная программа «Каисса». Не так давно компьютер обыграл и Гарри Каспарова. Однако магистральным путем к созданию интегрального искусственного интеллекта они явно не являются. Их принцип действия - это перебор вариантов плюс использование накопленных в шахматной теории правил (теория эндшпилей, разыгрывание стандартных дебютов и т.п.). Эти правила нигде кроме шахмат, не применяются. Кроме того, шахматный компьютер не способен обучаться, не способен самостоятельно придумывать новые правила. «Шахматное творчество» для него недоступно.
Робота также можно научить играть в футбол. Регулярно проводятся футбольные турниры роботов. Но даже самый лучший робот-футболист не сможет даже на элементарном уровне участвовать в игре в хоккей или в какой-либо другой игре, он не способен учиться, его программа основана, как правило, на очень примитивных инструкциях. Таким образом, ничего специфически «разумного» современные «интеллектуальные» программы не демонстрируют.
Не стоит забывать и о ранее упомянутой проблеме: есть ли реальные пути создания искусственного интеллекта. Одна из первых работ, в которой была дана обстоятельная критика искусственного интеллекта, - это вышедшая в 1971 году работа X. Дрейфуса «Чего не могут вычислительные машины». В этой работе X. Дрейфус тщательно проанализировал допущения, лежащие в основе веры в возможность создания машинного аналога человеческого разума. Дрейфус выделяет четыре основных допущения:
Дрейфус пытался показать, что биологическое допущение не согласуется с новейшими данными нейрофизиологии, тогда как другие три допущения не являются твердо установленными истинами и могут оказаться несостоятельными.
Одно из основных препятствий на пути создания адекватной машинной модели человеческого интеллекта Дрейфус видит в неосуществимости алгоритмического моделирования человеческих потребностей, мотивов и деятельности целеполагания. При этом он подчеркивает биологический, телесно детерминированный характер человеческих потребностей и важность двигательной активности организма - как средства приобретения особого телесно-моторного опыта. Машину нельзя, по мнению Дрейфуса, запрограммировать таким образом, чтобы она была способна ставить собственные цели, испытывать желания и т.д.
Этот аргумент представляется весьма спорным, особенно если учесть более поздние разработки в области компьютерного моделирования мотивации, эмоций и целеполагания. В целом, следует признать, что работа Дрейфуса не дала определенного ответа на вопрос: возможен ли интегральный искусственный интеллект, равный по своим возможностям интеллекту человека.
Гораздо большее значение имеет так называемый «геделевский аргумент» против искусственного интеллекта. Теорема утверждает, что в достаточно "выразительных" формальных языках непременно найдутся истинные, но недоказуемые утверждения - причем этот результат не зависит от конкретного выбора дедуктики. Это означает, что множество "содержательных" истин всегда превосходит по объему множество истин, доказуемых с помощью любой сколь угодно сложной формализованной системы доказательств. Если смысл теоремы Геделя сводится к невозможности формализации содержательного понятия истины, то уже отсюда следует невозможность создания машины способной различать истину и ложь столь же эффективно, как это делает человек. Преимущество человека перед машиной можно усмотреть в том, что человек способен в любых случаях распознавать истинность "геделевских предложений", а машина делать это не способна. Впервые этот аргумент сформулировал британский математик Дж. Лукас в 1961 г. По мнению Дж. Лукаса, из известной теоремы К. Геделя «о неполноте формальных систем» (доказанной в 1931 г.) вытекает принципиальное различие между человеческим мышлением и любыми, сколь угодно сложными алгоритмическими системами искусственного интеллекта. В 60-е годы аргументация Лукаса была встречена весьма скептически и не повлияла существенно на исследования искусственных интеллектуальных систем. Однако в 1989 году этот аргумент «воскресил» и значительно усилил известный британский физик и математик Р. Пенроуз. Вышедшие одна за другой две его обстоятельные монографии привлекли к себе внимание и вызвали обширную дискуссию, в которой приняли многие известные математики, философы, нейрофизиологи и специалисты по искусственному интеллекту. Но и в этой новой дискуссии опять возобладало скептическое отношение к геделевскому аргументу.
Большое значение для оценки возможности создания интегрального искусственного интеллекта также имеет придуманный американским философом Дж. Сёрлом мысленный эксперимент, известный как «аргумент китайской комнаты». Смысловым ядром аргумента является утверждение о невозможности воспроизведения мыслительных процессов через операции над формальными символами. Кратко аргумент формулируется «Программа лишь манипулирует символами, мозг же придает им смысл». Сёрл задался вопросом: будет ли машинный эквивалент человеческого интеллекта действительно обладать такими психическими функциями, как понимание, чувственное восприятие, мышление и убедительно показал, что на этот вопрос следует ответить однозначно отрицательно. Машина в любом случае будет лишь чисто внешним образом имитировать понимание, восприятие и мышление, ничего на самом деле не понимая, не воспринимая и не мысля.
Подводя итог исследований в области искусственного интеллекта за последние 50 лет, можно сделать вывод, что при должной настойчивости любая локальная область интеллектуальной деятельности человека, по крайней мере, если она не носит ярко выраженного творческого характера, может быть представлена в виде алгоритма и передана машине. Однако конечная цель проекта «искусственный интеллект» - создание универсальной «разумной машины», которая могла бы обучаться, подобно человеку, и самостоятельно совершенствовать свое поведение, осваивая новые виды интеллектуальной деятельности и достигая при этом уровня человека средних способностей - эта цель не достигнута и появляется все больше сомнений в ее принципиальной достижимости. По крайней мере, никакого реального прогресса в создании такого самообучающегося «интегрального» интеллекта достигнуто не было.
Список используемых источников:
1. Дубровский ДИ. Психические явления и мозг. М., 1971.
2. Патнем X. Философия сознания. М., 1999.
3. Пенроуз P. Новый ум короля. М., 2002, Penrose R. Shadows of the Mind. L., 1993.
4. Сёрл Дж. Разум мозга - компьютерная программа?// В мире науки. 1990. №3. С.7-13.
5. Тьюринг А. Может ли машина мыслить? М., 1960.
6. Ярвилехто Т. Мозг и психика. М., 1992.
7. Интернет-журнала «Мембрана» статья Андрея Плахова (http://www.membrana.ru/particle/2121)
8. http://ru.wikipedia.org/wiki
9. http://www.boldachev.com/que-ans/ia-probl/