|
Не так давно я
получил письмо от Владимира Кузника, в
котором он рассказывает о своем видении
трудностей создания системы
искусственного мышления. А речь
собственно идет о том, что в планируемом
(обозримом) будущем я собираюсь
закончить проектирование таковой
системы. В настоящий момент
заканчивается макетирование базовых
решений. Эти макеты должны
продемонстировать принципиальную
возможность эмуляции процесса мышления.
Об этом мы еще будем много и предметно
говорить, прямо здесь на сайте.
Вот они, аспекты:
Какие вас ждут трудности:
1. Проблема "внешнего мира". Это не
должен быть реальный мир, так как
сложность задачи становится
невообразимой Вернее,
невообразимыми становятся средства на
ее реализацию. Но это не может быть и
кодированная информация. Можно даже
сформулировать теорему о невозможности
существования ИИ, способного принимать,
передавать, хранить и обрабатывать
только символьную информацию.
Но ничто не мешает создать
искусственный "внешний мир",
наделенный какими-то свойствами и
какими-то связями. ИИ должен
воспринимать его "органами чувств"
и далее по схеме найти хоть какие-нибудь
связи. Разумеется, "внешний мир"
должен быть совершенно независим от ИИ.
2. Если не будет забывания, не будет и
разделения на единичные и общие понятия.
Сделать это можно следующим образом. "Предметы"
из "внешнего мира" должны
отличаться сущностно (как собака от
кошки). А вот все "собаки" (равно и
"кошки") должны отличаться друг от
друга одним единственным признаком,
который назовем "цветом" и который
индивидуален для каждой "собаки" (это
не имя!). Конечно, ИИ должен уметь
распознавать "цвет". В модели это
сделать просто.
Забывание индивидуального "цвета"
приводит к какому-то одному "цвету".
В результате "собака" может быть
запомнена или как общее понятие, или как
единичное. А может быть вообще забыта,
если ее встреча с ИИ была случайной и
больше не повторялась.
3. У ИИ должен быть мотив к какой-то
деятельности, и он должен быть наделен
исследовательским рефлексом. Какие-то
соображения у меня есть, но возможно, у
вас тоже что-то имеется.
4. Он должен иметь систему "привыкания"
к безопасным или бесполезным предметам,
сигналам и шумам. Они могут и не
создавать понятий! Как это делается и
как это вписывается в схему, я кажется,
понимаю.
5. Организация обратной связи. Тоже есть
подозрения, как это смоделировать, но
все очень в сыром виде.
6. Откуда возникает необходимость
прогнозировать свои действия (заранее
продумывать) вроде бы понятно.
Мне показались эти аспекты
очень важными, достойными того, чтобы их
рассмотрение разместить в сети. Что я и
делаю. (Кроме того, необходимо
приближаться к тому, ради чего все
затевалось - к предметной беседе о
искусственном мышлении :-))
Вот мои комментарии к этим
шести аспектам:
1. Проблема "внешнего
мира"
В связи с тем, что я ставлю эту задачу как
формальную, проблема содержания
внешнего мира в самом деле - важнейшая.
Вариантов не много, но есть.
Первый, хороший, заключается в том, чтобы
с самого начала
"познакомить" систему с
существованием внешнего мира, сделав
это, например, с помощью видеосистемы на
входе.
Этот путь, отчасти, Вы рассматривали в
своей постановке.
Я тоже считаю, что вычислительный ресурс
таковой системы должен быть очень велик,
в настоящий момент мощности
персонального компьютера для него
просто
не хватит. Кроме того, архитектура такой
системы должна быть невероятно сложной
и включать в себя реализацию предметной
"деятельности", а возможно и
"социальных аспектов". Что также не
является тривиальной задачей.
Поэтому я предположил, что для системы
внешним миром является весь текст,
написанных на естественном языке,
только он и ничего, кроме него. Такой
вход не только существенно упрощает
задачу, он делает ее качественно
иной. Если утрировать, то я предполагаю,
что система ИИ вообще может на первом
этапе не иметь представления о
существовании какого-то внешнего мира,
несущего законы, свойства и способность
содержать в себе ее существование.
1.1. Теорема о невозможности
существования ИИ, способного принимать,
передавать, хранить и обрабатывать
только символьную информацию.
И это - принципиальный момент.
Сформулировать такую теорему, конечно
же, удастся. А вот доказать :-)? На этот
вопрос, мы с Вами отвечам противоположно.
Я считаю, что законы мышления и сознания
они не антропны, а являются
свойством мира вообще. (Согласитесь,
если бы это было не так, можно было бы
закрыть вопрос о возможности развития
разума везде, кроме Земли.) Поэтому я
ставлю задачу поиска этих законов, а не
моделирования человеческого
варинта мышления, которые имеют историю
и зависимость от нашей, человеческой
аппаратной базы.
И я, также как и Вы, уверен, что
существуют минимальные операции (кто-то
их называет когнитивными), которые
отражают только этот уровень развития
материи. Т.е. грубо говоря, система может
быть глупой, очень глупой,
но должна быть интеллектуальной с
самого (!) своего начала.
Именно в этом, мне кажется, содержится
ошибка в прочих подходах, когда систему
пытаются сделать сначала
функциональной, а реализацию
мыслительных функций оставить "на
потом", когда "база будет полной".
Разумеется, это "потом" никогда не
наступает, поскольку организация
хранения данных - это не просто "внутреннее"
дело системы, но неотъемлимый элемент
мышления.
Я хочу "базу данных" "вырастить"
в системе.
Поэтому на первом этапе, ничего, кроме
текста, как Объективного Мира. И все
функции мышления (включая воздействие
на Мир, в этом случае - это генерация
нового текста, модернизация старого,
создание семантических
структур и прочая "символьная" :-)
работа) могут быть адекватно выражены в
терминах этого узкого символьного мира.
1.2. "Внешний мир"
Такой простой внешний сильносвязный
независимый мир существует. Это мир
человеческих текстов.
2. Аспект забывания
Вообще-то этот аспект не
представляет собой проблемы.
Если мы понимаем, что забывание - это
важнейшая функция мыслительной
деятельности, без которой немыслима
генерализация, то реализовать забывание
возможно самыми разными вариантами, в
том числе - экзотическими.
В рабочих макетах я в
настоящий момент использую три
механизма: выставление весов, убывание
веса со временем и нечеткий шаблон. Но
это детали, которые легко можно изменить
и доработать. Гораздо более интересна
сама мыслительная операция
сопоставления объектов.
Методологические мои размышления по
этому поводу представлены в наброске
"отождествение и разЪотождествление"
/Method1/SemSynthesis.htm
3. Мотив деятельности
Если справедливо мое
предположение о том, что в ИИ должно быть
некоторое динамическое равновесие, то
"исследовательский рефлекс" - это
неотъемлимая часть ИИ, базовая функция
которого приведение своей структуры в
как можно более устойчивое положение. В
некотором смысле, можно провести аналог
между принципом наименьшего
действия и внутренними операциями ИИ. Но
это гипотезы.
А вот в чем я уверен: нельзя вводить
мотивационные функции и "поведение"
в ИИ в явном виде. Они должны возникать
сами, как результат проявления
устройства ИИ и его архитектуры.
Можно считать это очень
хорошим тестом. Если ИИ начинает
обладать поведением,
значит разработка происходит в
правильном направлении.
4. Аспект шума
Не должно быть
предопредленного выделения шума. В
зависимости от контекста, шум и сигнал
могут меняться местами. Реализация
подавления шума в динамических
сигналах очевидна, а вот для статических
сигналов есть проблемы. В связи с тем,
что проектируемая система будет с
акцентом "семантическая", я
перекладываю проблему обработки шума на
генерализацию.
В конце концов, в первых версиях ИИ может
быть избыточно шумоустойчив.
Но мне кажется, что шум играет очень
важную роль в способностях системы к
обобщению. Если выражаться образно, то
шум - это строительный материал ИИ. :-)
5. Организация обратной связи
Это чисто реализационная
проблема. В связи с тем, что "рабочие
пространства" ИИ комплементарны, т.е.
находятся друг с другом в соответствии,
можно считать, что
внутри системы заложена возможность
положительной и отрицательной обратной
связи на уровне архитектуры.
Обратная связь с внешним миром - это
задачный уровень.
я предполагаю, что ИИ будет иметь
технологическое предназначение, иметь
своего "оператора", взаимодействие
с которым и будет таковой. Иметь "органы"
воздействия на внешний мир или систему
детектирования в первых версиях не
предполагается, поскольку главная
задача для меня
сейчас - это обеспечения приемлимого
уровня естественно-языкового общения.
6. Прогнозирование своих действий
Наверное, имеется ввиду
ИИ как комплекс с системой
детектирования и "манипулирования".
В программном комплексе эта задача
почти не актуальна, хотя интересно
рассмотреть ее как теоретическую.
С другой стороны, почти
всегда, в практическом смысле, нам будет
нужна система, ориентированная на
исполнение своих функций в рамках
какого-то жизненного цикла работы
предприятия / организации. Здесь "прогнозирование
своих действий" можно рассматривать
как а) наличие внутри системы ИИ
представление об идеальном жизненном
цикле; б) наличие у системы
представление "о себе" и элементах
аппаратной реализации (рассмотрено в
"Активных
информационных системах"); в)
обобщение (выработка закономерностей,
прав) поведение "пользователя" ИИ с
тем, чтобы адаптироваться с целью
максимально эффективного решения
совместных задач.
30 Янв 03 |